主催: 人工知能学会
会議名: 第93回 言語・音声理解と対話処理研究会
回次: 93
開催地: オンライン
開催日: 2021/11/29 - 2021/11/30
p. 107-112
近年,Transformer Encoder-decoderモデルをSNS等の大規模なテキスト対話データで事前学習し用いることで,自然な対話を実現する手法が盛んに研究されている.事前学習モデルの構築には大きなコストがかかるため,一度構築したあとは同一のモデルを使い続ける事が多い.しかしその場合,モデル自体が持つ知識が徐々に古くなってしまい,発話のベースとなる常識がずれてくることで,対話が噛み合わなくなる問題がしばしば発生する.本研究では,時期等の異なるデータで事前学習モデルを追加訓練した場合に,生成される発話がどのように変化するかについて分析する.