人工知能学会全国大会論文集
Online ISSN : 2758-7347
第34回 (2020)
セッションID: 3Rin4-76
会議情報

Wikipedia記事間の関係を考慮したTriplet Networkに基づくBERTのFine-tuning
*山岸 駿秀鈴木 貴文稲木 誓哉
著者情報
会議録・要旨集 フリー

詳細
抄録

近年、文の分散表現を獲得する方法として、BERTのような事前学習済み言語モデルをタスクに合わせてfine-tuningする方法が提案されている。Dor et al. (2018) は、教師なし学習を利用して言語モデルをfine-tuningする方法として、ある文がwikipediaのどの記事中の文かを推定させるタスクにおいて、wikipediaの同記事かつ同節に含まれる文を正例、同記事かつ別節に含まれる文を負例とする損失関数 (Triplet Loss) に基づく方法を提案した。しかし、異なる記事間の関連性を考慮していないため、同記事中よりも関連記事中に多くの情報が記述されている場合に、適切な負例を選択できない問題がある。 本研究では、上記推定タスクにおける新たなfine-tuning方法を提案する。記事間のハイパーリンク構造に基づいて負例を選択し、記事間の関係情報を取り入れた新たな損失関数に基づいてfine-tuningを行った。提案方法は、上記推定タスクにおけるstate-of-the-artと比較して、Accuracyやモデルのロバスト性において性能向上が認められた。

著者関連情報
© 2020 一般社団法人 人工知能学会
前の記事 次の記事
feedback
Top