2024 年 2024 巻 AGI-027 号 p. 233-241
大規模言語モデル(LLM)は高度な言語理解ができるが,ユーザーの誤った信念(誤信念)基づいた指示に対して訂正せずに作業しうる.本研究の目的は,誤信念を訂正しない問題を明らかにすることである.まずBDIモデルを用いたLLMエージェントが,ユーザーが誤信念を持つと想定される場合に訂正を行う指示を明確化し動作確認した.実験では14件の誤信念事例で,誤信念の訂正有無で比較した.結果,信念推定を行わない場合,ユーザーの願望に応じた提案は8件できたが,誤信念の推定と修正を含む場合は14件すべてで応えられた.以上より,ユーザーの誤信念を適切に修正しないと,ユーザーの願望に答えるのが難しいことが示唆された.