抄録
本研究は, ニューラルネットワークのBP学習に対して, 高速で安定性の高い学習アルゴリズムを構築する.共役勾配法の学習速度に対する高速性が明らかとなっているが, 学習の初期値に依存するという不安定さを合わせ持つ.そこで, 本報では, 共役勾配法の学習速度を維持しつつ, 安定性を向上させる方法を研究する.具体的には, 従来の局所的に二次近似して共役方向を生成する方法に対し, 二次近似する範囲を調節できる共役方向生成公式を提案する.本公式を導入した方法を改良共役勾配法と呼ぶ.改良共役勾配法ではより広い範囲で二次近似できるため, 局所的情報のみにとらわれず, 安定性の高い探索が期待できる.シミュレーション実験の結果, 改良共役勾配法は, 従来法に比べて, 初期値によるばらつきを約半分に抑えることが明らかになった.また, 学習速度の面でも高速性を維持している.