人工知能学会全国大会論文集
Online ISSN : 2758-7347
第34回 (2020)
セッションID: 4J3-GS-2-01
会議情報

1クラス分類器に対する敵対的サンプルの有効性について
*小関 義博
著者情報
会議録・要旨集 フリー

詳細
抄録

敵対的サンプルとは、摂動を加えることで分類器が誤った結果を出力するように生成された入力であり、この種の入力を生成する攻撃手法は実世界におけるAIシステムのセーフティとセキュリティを守るうえで重要な懸念事項となっていることから、近年活発に研究が行われている。本研究では、従来の敵対的サンプル攻撃の対象となってきた多クラス分類器ではなく、1クラス分類器に対する敵対的サンプル攻撃の有効性を示す。具体的には、Fast Gradient Sign Method攻撃をVariational Autoencoderをベースとした1クラス分類器に対して実行した結果を示す。

著者関連情報
© 2020 一般社団法人 人工知能学会
前の記事 次の記事
feedback
Top