抄録
強化学習の手法の一つであるQ-learningでは,状態に対する行動の価値関数をQ表として保持している.このQ表の構造の設定には問題に対する十分な把握が必要である.状態を細かく取り過ぎるとQ表が大きくなり,学習に時間がかかってしまい,逆に,荒くとり過ぎると学習できなくなってしまう.状態空間が実数の場合には,さらに状態空間の構造の設定が困難となる.本論文では,実数値環境下において状態空間のないところから,必要に応じて状態を追加し,Q-learningによる更新を行ないながら,不要な状態を削除することにより状態空間を動的に構築していく方法を提案する.状態の削除に関しては,前に提案した「逐次入力を用いた忘却型ファジィ・ニューラルネットワーク」の忘却型学習の考えを用い,実数値環境における問題に適用する.