主催: 一般社団法人 人工知能学会
会議名: 2025年度人工知能学会全国大会(第39回)
回次: 39
開催地: 大阪国際会議場+オンライン
開催日: 2025/05/27 - 2025/05/30
本研究では,Alibaba Cloud 開発の Qwen モデルシリーズ Qwen2.5-32B-Instruct および Qwen2.5-7B-Instruct に日本語中心の継続事前学習を実施し,日本語タスクにおける有効性を評価した.社会実装を見据え,モデルのパラメータ数を抑えつつ高い日本語性能を目指し,約 100B トークンの日英混在データで継続事前学習を実施した.さらに ChatVectorによるマージ手法を適用して指示追従性能を向上させた.評価には MT-Bench-Japanese と ELYZA-tasks-100 を用い,32B モデルではそれぞれ 8.294,4.37 を記録し,クローズドな大規模言語モデルに匹敵する競争力を示した.また,各ベンチマークの総合で,Qwen2.5-72B-Instruct のスコアを上回っており,日本語継続事前学習の有用性が確認された.一方,出力に中国語が混在する事象が確認されており,ChatVector や元モデルの学習データの影響が示唆される.今後は混在データの排除に加えて,領域特化・タスク特化を含むチューニングによってさらなる性能向上と問題解消を図る.