人工知能学会全国大会論文集
Online ISSN : 2758-7347
第32回 (2018)
セッションID: 2P2-01
会議情報

経験データ重み付けによるDeep Q Networkの高速化
*村上 知優森山 甲一武藤 敦子松井 藤五郎犬塚 信博
著者情報
会議録・要旨集 フリー

詳細
抄録

Deep Q Network(DQN)は行動価値関数をディープニューラルネットワークによって近似するものであり、人間を上回る行動選択能力を獲得するに至っている。しかし、DQNは学習速度が極めて遅い。DQNはエージェントが観測したデータ郡(経験データ)をメモリ内に保存し、そこから等確率でランダムにサンプリングした経験データを用いて学習を進めていくが、経験データは出現率が異なるため、出現率の高い経験データに対する学習は冗長に行われ、低いものに対する学習はなかなか進まない。そこで、出現率の低い経験データを重要な経験データとして扱い、サンプリングされる確率を操作することで学習効率を高めることができると考えられる。Atari2600のPongで実験した結果、DQNの学習速度を改善することができた。

著者関連情報
© 2018 一般社団法人 人工知能学会
前の記事 次の記事
feedback
Top