英語を母語としない人にとって適切な前置詞の選択は難しく,この問題に対処するため,自然言語処理モデルのBERTを利用した英文前置詞誤りの検出や修正の手法が提案されている.本稿では,英語で書かれたニュース記事の前置詞箇所をマスクした空所補充問題に焦点を当て, BERTとその後継モデルであるRoBERTa, ALBERT, DistilRoBERTaの性能を比較する.具体的には,選択肢のない英文前置詞の空所補充問題に対する各モデルの正解数,処理時間を評価した.実験の結果, BERTの正解率は89.1%, ALBERTの正解率は80.0%, DistilRoBERTaの正解率は82.1%, RoBERTaの正解率は93.8%であった.一方,最も正解率が高いRoBERTaの処理時間はBERTの処理時間の約1.1倍となった.
抄録全体を表示