人工知能学会全国大会論文集
Online ISSN : 2758-7347
第39回 (2025)
セッションID: 1B5-OS-41c-02
会議情報

大規模言語モデルによる指示文拡張と二段階事前学習を用いた世界モデルのオフライン事前学習手法の評価
*高円 悠聖藤間 裕史武田 康宏河野 慎松尾 豊
著者情報
会議録・要旨集 フリー

詳細
抄録

近年、テキストなどのオフラインデータを活用した世界モデルの事前学習が、タスク学習の効率向上に大きく寄与することが示されている。特に、Dynalangでは、タスク指示や環境のダイナミクスといった情報を活用することで、性能向上やサンプル効率の改善に成功しているが、この手法はMessengerタスクに限定して適用されており、他のタスク環境での有効性や、事前学習に使用するテキストの種類や質が性能に与える影響については十分な検討が行われていない。 本研究では、より簡易なHomeGridタスクにDynalangの手法を適用し、その汎用性を検証する。また、大規模言語モデル(LLM)を活用し、タスクに関連するドメイン特化型テキストを生成・拡張することで、学習初期のパフォーマンス向上およびサンプル効率の改善を調査した。さらに、一般的な文章で基礎的な言語理解を学習し、その後ドメイン特化型文章でタスク特化能力を強化する二段階事前学習戦略の有効性を検証した。 本研究の結果は、テキストを活用した事前学習手法の適用範囲を拡大し、モデルベース強化学習における新たな可能性を示すものである。

著者関連情報
© 2025 人工知能学会
前の記事 次の記事
feedback
Top