人工知能学会全国大会論文集
Online ISSN : 2758-7347
第33回 (2019)
セッションID: 1G4-OS-13b-03
会議情報

人間とエージェントとの協調作業における適応的な信頼較正手法の提案
*岡村 和男山田 誠二
著者情報
会議録・要旨集 フリー

詳細
抄録

人間と自律的システムの協調作業において、人間が持つシステムへの信頼をシステムの実 際の能力にバランスさせることを、信頼較正(trust calibration)と呼ぶ.適切な信頼較 正を行うことで過信や不信状態に陥らないことが、協調作業の効率や安全性にとって非常 に重要である.これまでの研究においては、適切な信頼較正のためには、システムの状態 を透過的に提示すること (system transparency)が重要であることが示されている.しか しながら、筆者の知る限り、不適切な信頼較正状態になっているかどうかの判定および過 信不信状態からの復帰についての研究はあまり行われていない.本研究では、状態判定の ためのフレームワークと信頼較正CUEと呼ぶ情報提示を使い、適応的に信頼構成を促す新 たな手法を提案する.ドローンシミュレータを用いたオンライン実験による評価を行い、過 信状態のタイミングにて信頼較正CUEを提示することで、行動が有意に変容することを観 察した.これにより本研究の提案手法の有効性を示すことができた.

著者関連情報
© 2019 一般社団法人 人工知能学会
前の記事 次の記事
feedback
Top