抄録
近年,深層学習を用いた画像認識モデルの高精度化が進み,医療・監視・自動運転など幅広い分野での応用が進んでいる。その一方で,敵対的攻撃と呼ばれる,入力画像にわずかな摂動を加えることで誤分類を誘発させる攻撃が深刻な問題となっている。特にFast Gradient Sign Method(FGSM)は,わずかな処理時間で悪性な画像を生成できるため,非常に脅威である。これに対し,入力画像に対して画像加工処理を適用する,前処理ベースの防御手法が広く検討されてきたが,その有効性は攻撃の強度やモデル構造に依存し,実験環境によって結果が異なることが知られている。さらに,画像分類の分野において代表的な高精度モデルであるVison Transformerに対しては,FGSMに関する評価が不十分である。そこで本研究では,Vision Transformerに対するFGSMの防御手法を提案し,評価実験によってその有効性を実証した。