人工知能学会全国大会論文集
Online ISSN : 2758-7347
第36回 (2022)
セッションID: 3M4-GS-4-04
会議情報

Transformerモデルを用いた学術文献の言語情報と引用情報の融合
*大知 正直城 真範森 純一郎坂田 一郎
著者情報
会議録・要旨集 フリー

詳細
抄録

2017年に発表されたTransformerモデルは当初自然言語処理分野での利用が進んだが,その後画像処理,ネットワーク等多様な分野での活用が広がっている.Transformerモデルは,大規模データを用いた学習済みモデルの公開,個別のタスクへ新しいデータを適用しファインチューニングを行える等の利点がある.学術文献には,言語,引用,図表の画像など多様なデータが含まれている.しかし,これまで各データを個別に利用,抽出した特徴量を組み合わせて分類や回帰を行った研究が主で,データ間の相互作用を十分に考慮していなかった.本稿では,学術文献のデータのうち言語情報と引用情報をTransformerモデルを用い,end2endで融合する手法を提案する.Web of Scienceから抽出したデータセットを用い,出版3年後の被引用数が上位20%となる論文の分類を行なったところ,提案手法は個別の情報だけを用いるよりもF値を2.6〜6.0ポイント改善した.本手法によって,学術文献の持つ多様なデータをend2endに融合することが可能になり,様々な分類,予測の精度向上を容易に図れる可能性を示している.

著者関連情報
© 2022 人工知能学会
前の記事 次の記事
feedback
Top