主催: 一般社団法人 人工知能学会
会議名: 2022年度人工知能学会全国大会(第36回)
回次: 36
開催地: 京都国際会館+オンライン
開催日: 2022/06/14 - 2022/06/17
自然言語処理における機械学習では,大規模な事前学習済みTransformerモデルを使用することが主流となっており,特に,モデルのサイズが性能に大きな影響を与えることが示されている.このような状況では,BERTをはじめとする大規模モデルは,巨大なメモリを持つGPUを必要とするため,多くの人々にとって手の届かないものになっている.こうした問題を解決するためには,できるだけモデルの性能を維持しつつ,サイズを圧縮する必要がある.従来手法としてエンコーダブロック単位でプルーニングを行う手法があるが,どの部分を削除するかは経験に基づいて決定されている.本研究では,既存のエンコーダブロックに対してプルーニングを行う圧縮手法に,各エンコーダブロックを削除した際のロスの変化量を評価指標として導入し,算出されたスコアに基づいて削除する箇所を決定することで,性能を維持しつつサイズを削減する手法を提案する.GLUEタスクを用いた実験において,予め定められた特定のブロックを削除する従来手法と比較して,モデルを圧縮した際の性能劣化をより抑えられることが確認できた.