人工知能学会全国大会論文集
Online ISSN : 2758-7347
第37回 (2023)
セッションID: 1P5-OS-16b-02
会議情報

説明性と公平性を担保するStakeholder-in-the-Loopな意思決定枠組みの検討
*横田 拓也中尾 悠里
著者情報
会議録・要旨集 フリー

詳細
抄録

機械学習技術には不透明性が含まれるため,行政や企業で利用される意思決定支援システムに機械学習が用いられる場合は説明性と公平性の担保が必要である.説明性と公平性の要件はシステムの意思決定の影響を受ける利害関係者の価値観によって異なるが,各利害関係者にとって適切なアウトプットに関する議論が不足している.本発表では説明性と公平性の要件を決定するための『利害関係者による公平な意思決定』の枠組みを提案し,考慮すべき4つの利害関係者にとって適切なアウトプットをどのように検討すべきか議論する.さらに,利害関係者の多様な価値観を抽出し,すべての利害関係者が合意するアウトプットに統合する取り組みの事例として,我々が行っている雇用AIの利害関係者を対象とした実証研究を紹介する.雇用AIの説明性と公平性を担保するために,アンケートを通じて利害関係者の価値観を数値的に抽出し,統合したアウトプットにおいて誰が利益を得るか/損失を被るのか数値的に説明するシステムを提案し,クラウドソーシングによる実験の結果を報告する.

著者関連情報
© 2023 人工知能学会
前の記事 次の記事
feedback
Top