人工知能学会全国大会論文集
Online ISSN : 2758-7347
第36回 (2022)
セッションID: 2L1-GS-2-04
会議情報

ニューラル生成文に含まれる事実不整合の検出と修正
*森脇 恵太大野 瞬杉山 弘晃酒造 正樹前田 英作
著者情報
キーワード: BERT, 事実不整合問題, 対話
会議録・要旨集 フリー

詳細
抄録

本研究では,事実不整合検出の為の分類モデルと事実不整合修正の為の生成モデルとを組み合わせて,文章に含まれる事実不整合の修正を行い,ニューラルネットを用いた文章生成モデルの出力に事実不整合が含まれることを防ぐことを目的とする. 検出,修正モデルの学習には文章生成を行うモデルの学習データセットを改変した人工的なデータセットを用いる. 修正モデルのみを用いた場合と比較を行った結果,検出モデルを入れることで修正モデルによる整合文から不整合文への書き換えを防ぎつつ,事実不整合を含む文章の書き換えを行うことができることが示された. しかし,二つのモデルの解決可能,不可能な問題に同様の傾向が見られた. より性能を上げるために,それぞれのモデルが相補的に働くことができるような学習データを用意する必要があると考える.

著者関連情報
© 2022 人工知能学会
前の記事 次の記事
feedback
Top