人工知能学会全国大会論文集
Online ISSN : 2758-7347
第39回 (2025)
セッションID: 3S6-GS-2-03
会議情報

Qwen2.5-32B/7Bの日本語継続事前学習
*大谷 真也服部 響藤本 敬介中西 健太郎真鍋 知樹清田 浩史村主 壮悟久米 拓馬木下 正文
著者情報
会議録・要旨集 フリー

詳細
抄録

本研究では,Alibaba Cloud 開発の Qwen モデルシリーズ Qwen2.5-32B-Instruct および Qwen2.5-7B-Instruct に日本語中心の継続事前学習を実施し,日本語タスクにおける有効性を評価した.社会実装を見据え,モデルのパラメータ数を抑えつつ高い日本語性能を目指し,約 100B トークンの日英混在データで継続事前学習を実施した.さらに ChatVectorによるマージ手法を適用して指示追従性能を向上させた.評価には MT-Bench-Japanese と ELYZA-tasks-100 を用い,32B モデルではそれぞれ 8.294,4.37 を記録し,クローズドな大規模言語モデルに匹敵する競争力を示した.また,各ベンチマークの総合で,Qwen2.5-72B-Instruct のスコアを上回っており,日本語継続事前学習の有用性が確認された.一方,出力に中国語が混在する事象が確認されており,ChatVector や元モデルの学習データの影響が示唆される.今後は混在データの排除に加えて,領域特化・タスク特化を含むチューニングによってさらなる性能向上と問題解消を図る.

著者関連情報
© 2025 人工知能学会
前の記事 次の記事
feedback
Top