抄録
近年、大規模言語モデル(LLM)を用いた実用例やアプリケーションが盛んに試みられている。現状のLLM は強く帰納的な手法であると言え学習データの影響を強く受けざるを得ない。このため、学習データの質は重要であるが、学習データによっては誤謬もありうるというのは妥当であると言える。今回、この誤謬の一例に遭遇したので報告する。この誤謬は、LLM を用いた統計学習ゲームを企画する上で起こったものである。統計的検定についてLLM と議論する上で、いわゆる正規性検定について問題となった。正規性検定は、サンプルデータは正規分布に従うことを帰無仮説として行われるものである。統計的検定の性質上、帰無仮説が棄却されなかった場合、「データは正規分布に従うとも従わないとも言えない」というのが正しい結論である。しかしLLM はこれを「データは正規性を持つ」と解釈していた。LLM との議論を進展させた結果、LLM は自らの誤りを認めたが、別の人工知能モデルにおいても同様の現象を認めた。正規性検定について上記の誤謬を持つ例(論文や学会発表など)は散見されるため、これらを学習したために起きた誤謬であると推察できる。このようにLLM は学習データによって誤る可能性を強く否定できないものと考えられ、LLM による思考を学習ゲームなどに導入する場合には注意が必要と考えられた。