主催: 一般社団法人 人工知能学会
会議名: 第34回全国大会(2020)
回次: 34
開催地: Online
開催日: 2020/06/09 - 2020/06/12
人種,性別などのセンシティブな個人の属性に対して機械学習で得られたモデルの出力が偏る問題が機械学習における公平性の問題として広く認知されてきており,それに伴い,偏りを解消する学習手法が盛んに研究されている.既存の公平な機械学習アルゴリズムは訓練とテスト時のサンプル分布が同一な状況に対し設計された手法であるが,現実世界では訓練とテスト時のサンプル分布が異なることがあり得る.例えば,履歴書のデータから雇用の採否を推定するタスクを公平な機械学習アルゴリズムを用いて学習を行なった時,訓練事例が5年前のサンプルであった場合,社会情勢や採用者の意識の変化などにより採否の基準が変わることは十分考えられる.この様に訓練とテスト時のサンプル分布が異なる場合,訓練時に公平に学習したとしてもテスト時には公平にならない可能性がある.本研究では分布変化が,たとえ変化が微小でも,不公平になる可能性を検証する.そのために,実際に学習したモデルが不公平になるテスト分布を作成するアルゴリズムを開発する.また,実験的な評価により既存の公平な学習アルゴリズムで得られたモデルを不公平にするテスト分布が作成できることを示す.