人工知能学会全国大会論文集
Online ISSN : 2758-7347
第38回 (2024)
セッションID: 2M5-OS-24-05
会議情報

One-Shot NASによるBERTのモデル圧縮
*岡本 拓己横田 理央
著者情報
会議録・要旨集 フリー

詳細
抄録

近年、モデル性能の向上のためにモデルサイズを大きくした言語モデルの研究が行われているが、このようなモデルの事前学習には多くの時間を要する。この問題を解決するためにモデルの性能を維持したままモデルサイズを削減する手法としてモデル圧縮の研究が行われている。また、局所特徴量を効率的に学習できるアーキテクチャを組み込むことで言語モデルの性能を向上させる研究も行われている。そこで本研究では、性能を維持したままモデルサイズを削減することが可能なモデル構造を探索するために、局所特徴量を効率的に学習できるアーキテクチャのニューラルアーキテクチャ探索(NAS)を行った。 得られたモデルをGLUEベンチマークを用いて評価した結果、BERT-baseモデルに対して平均スコアを0.5増加させつつ、モデルのパラメータ数を46.1%削減できているという結果が得られた。

著者関連情報
© 2024 人工知能学会
前の記事 次の記事
feedback
Top