主催: 一般社団法人 人工知能学会
会議名: 2024年度人工知能学会全国大会(第38回)
回次: 38
開催地: アクトシティ浜松+オンライン
開催日: 2024/05/28 - 2024/05/31
Transformerが内部に持つSelf-Attention機構(注意機構)は,自然言語処理以外にも様々な分野において効果的な手法として利用されているが,それぞれのAttentionモジュールに対しての解釈は不明な点が多い.本研究では,日本語を対象にAttention機構をヘッド単位で言語学的な機能と対応させることにより,Transformerモデルの内部の挙動を解析する手法を提案する.具体的には、特定の品詞にあたるトークンを入れ替えたり、語彙を固定して構文的な順序のみを変更する変換を行い、変換前後でのAttention Headの反応の差分を観察した。特定の品詞や係り受け関係を変えた文のペアを入力した際のBERTにおけるAttentionノルムの差分を取得し,その差分を可視化することで,特定の品詞や係り受け関係に対して特徴的なAttention Headを特定することができた.