人工知能学会全国大会論文集
Online ISSN : 2758-7347
第38回 (2024)
セッションID: 4Xin2-45
会議情報

事前学習済み日本語BERTモデルにおける概念知識
*渡邉 琉一
著者情報
会議録・要旨集 フリー

詳細
抄録

本稿では、事前学習済み日本語BERTモデルのFeed-Forward-network層において、概念に関する知識を保持するニューロンを特定する実験に取り組む。具体的には、事前学習を行った日本語 BERTモデルに単語穴埋めタスクを解かせる際にモデル内の重要な重みパラメータ(ニューロン)を特定し、その場所や重要性を比較対照実験により確認する。また、事前学習済み英語 BERT による先行研究の結果との比較も行い、特定の条件下で実験結果が異なることを示す。

著者関連情報
© 2024 人工知能学会
前の記事 次の記事
feedback
Top