人工知能学会全国大会論文集
Online ISSN : 2758-7347
第34回 (2020)
セッションID: 1E3-GS-9-02
会議情報

Fine-Tuning による領域に特化した DistilBERT モデルの構築
*新納 浩幸白 静曹 鋭馬 雯
著者情報
会議録・要旨集 フリー

詳細
抄録

本論文では BERT の領域依存の問題を指摘し、Fine-Tuning を利用することで領域に特化した事前学習モデルを構築する。具体的には既存 BERT モデルのパラメータを DistilBERT のパラメータの初期値とし、領域毎のコーパスを利用して DistilBERT モデルの学習を行う。これによって領域に特化した DistilBERT モデルの構築が効率的に行える。実験では、領域毎に空所単語の推定問題を作成し、問題の領域に特化して構築したモデルと既存 BERT モデルを比較することで、構築したモデルの有益性を示す。

著者関連情報
© 2020 一般社団法人 人工知能学会
前の記事 次の記事
feedback
Top