人工知能学会全国大会論文集
Online ISSN : 2758-7347
第36回 (2022)
セッションID: 1D5-GS-11-01
会議情報

差分プライバシー基準を満たした機械学習モデルにおけるプライバシーデータ暴露の回避
*小松 史弥竹川 高志
著者情報
会議録・要旨集 フリー

詳細
抄録

近年,機械学習により様々なデータ活用が可能になった.一方,データの利用機会が増加することで,機械学習モデルからのデータ侵害について指摘されている.例えば電子メールの作成中に,入力候補を提示してくれるモデルについて考える.ユーザーが作成したメールの本文を用いて学習し,次に入力する候補を予測して生成する.このモデルでクレジットカードに関するテキストをユーザーが入力したとき,学習に用いられた誰かのクレジットカード番号が提示されてしまうことはデータ侵害である.本研究ではデータ侵害対策として,TensorFlow Privacyというライブラリで提供されている差分プライバシーを満たした最適化アルゴリズムであるDP-Adamを用いて,RNNによるテキスト生成タスクに取り組んだ.ここで個人情報に見立てたダミーデータの暴露を防ぐことができるかを実験した.結果,差分プライバシーを満たしたモデルではダミーデータ暴露の回避が確認できた.また過学習対策として用いられるL1正則化でもダミーデータの暴露が回避された.しかし,L1正則化モデルが生成したテキストには,存在しない単語が含まれていた.

著者関連情報
© 2022 人工知能学会
前の記事 次の記事
feedback
Top