人工知能学会全国大会論文集
Online ISSN : 2758-7347
第36回 (2022)
セッションID: 3P4-GS-2-04
会議情報

単語分散表現の固定化による日本語BERTの構築
*菅波 新新納 浩幸
著者情報
キーワード: 自然言語処理, 分散表現, BERT
会議録・要旨集 フリー

詳細
抄録

BERTは高性能な事前学習済みモデルであるが,モデルサイズが巨大なため,構築に多大な時間や計算資源がかかるという問題がある.また,事前学習済みモデルの高性能化に伴うデータセットやモデルの巨大化による,モデルの構築時間や費用の増大化も問題視されている.そこで本稿ではBERTの構築時間を削減するために,単語分散表現の固定化による日本語BERTの構築を提案する.具体的には,word2vecを利用して単語分散表現をあらかじめ学習しておき,その単語分散表現をBERTのToken Embeddingとして固定することで日本語BERTを構築する.実験では1024次元4層の日本語BERTをそれぞれ従来の方法と提案手法により構築し,モデルの構築時間と日本語ニュース記事に対する文書分類タスクでの精度を比較することで提案手法の効果を検証した.提案手法により構築時間は2.5%ほど短縮され,精度は改善される上,早いエポック数で収束することを確認した.

著者関連情報
© 2022 人工知能学会
前の記事 次の記事
feedback
Top