抄録
ニューラルネットワーク (ANN) における学習法の最も代表的な手法は誤差逆伝播法であるが, 学習データ毎に算出される教師信号と出力層からの出力信号の差である誤差関数を逐次最小化するため, 極値付近での学習の非効率化や振動といった問題が発生することがある. 本研究では, すべての学習データに対する誤差関数を一括して最小化することを目的に, 拡張ベイズ法によるANNの一括学習アルゴリズムを提案した. また, 学習および一般化能力に大きく影響する中間層ユニット数Lmを決定するため, 赤池ベイズ情報量基準ABICを用いた拡張ベイズ法の調整パラメータλ2とLmの同時最適化手法を提案した. 提案手法は, 学習効率, 学習および予測精度が向上し, λ2およびLmの決定についても有効であることがわかった.