自然言語処理
Online ISSN : 2185-8314
Print ISSN : 1340-7619
ISSN-L : 1340-7619
一般論文(査読有)
大規模言語モデルの文法知識評価方法の再検討
井手 佑翼西田 悠人Justin Vasselli大羽 未悠坂井 優介上垣外 英剛渡辺 太郎
著者情報
ジャーナル フリー

2026 年 33 巻 1 号 p. 51-75

詳細
抄録

言語モデルの文法知識の評価は,しばしばミニマルペアベンチマークを用いて行われる.ミニマルペアとは,容認可能な文と容認不可能な文からなる文対である.容認性判断の方法としては,モデルを用いて計算した各文の生成確率を比較する手法が支配的である.しかし,近年の大規模言語モデル (LLM) はプロンプトに基づいてタスクを遂行することを想定して訓練されている点を踏まえると,LLM が割り当てる確率がモデルの知識を完全に反映したものであるとは限らない.そこで本研究では,プロンプトまたはテンプレートを用いて,LLM からより正確な容認性判断を引き出す方法を探る.英語と中国語について実験を行い,9 つの判断手法を比較した結果,テンプレートを用いた手法であるIn-template LPおよびプロンプトに基づく手法である Yes/No 確率比較が,従来手法よりも高い正解率を達成した.また,両手法をアンサンブルすることで,一方の手法のみを用いる場合より高い性能が得られることも確認された.以上の結果から,我々は,LLM の文法知識を十全に引き出しながら評価するための手法として,In-template LP を用いるか,または In-template LP と Yes/No 確率比較のアンサンブルを用いることを推奨する.

著者関連情報
© 2026 一般社団法人 言語処理学会
前の記事 次の記事
feedback
Top