抄録
マルチエージェントの標準問題に追跡問題がある。これはマス目上で、4つの青エージェントが1つの赤エージェントを追跡して捕獲する問題である。我々はこれを実数値に拡張し、赤エージェントとの距離と方向のファジィ集合を状態とするファジィQ学習を用いて各青エージェントの学習を行ってきた。ファジィQ学習は、行動するごとに一つ前の行動に対して学習を行う方法である。本研究では、一つ前の行動だけでなく、それまでのすべての行動に対して学習を行う方法であるファジィProfitSharing、ファジィQ(λ)、2種類のファジィQ(λ)の拡張手法を実数値環境の追跡問題に適用し、シミュレーションを行い、成功率と成功ターン数を比較した。シミュレーションの結果、ファジィQ(λ)と1種類のファジィQ(λ)の拡張手法が最も良い性能であることがわかった。