抄録
マルチエージェントや多足ロボットの行動制御を行うための強化学習手法として,遺伝的アルゴリズム(GA)によってQ-tableを動的に構成するQ-learning with Dynamic Structuring of Exploration Space Based on Genetic Algorithm(QDSEGA)が提案されている.
従来,QDSEGAでは,Q学習に用いられる行動を生成するGAにおいて,単純交叉を用いている.単純交叉を用いた場合,問題に対してQ学習に用いられる行動数が多くなる問題点がある.
一方,我々が用いる近傍交叉のみを使用した場合,局所を探索し,性能が低下する問題点がある.
そこで,我々はQ-tableを構成する際に,閾値を用いて単純交叉から近傍交叉に切り替える方法を提案する.提案手法をマルチエージェントの行動制御問題に適用した結果,Q学習に用いられる行動数の
減少を確認した.