2018 年 70 巻 3 号 p. 183-185
近年,深層ニューラルネットワーク(deep neural network, DNN) が機械学習分野で関心の中心にあり,一方でカオスニューロンモデル及びカオスニューラルネットワーク(chaotic neural network, ChNN) が計算論的神経科学や非線形科学において注目を集めている.しかし,深層のChNN に関する研究は未だない.このギャップを埋めるべく,本稿ではReLU(rectifier linear unit) カオスニューロンモデルを提案する.これはReLU を活性化関数として用いるDNN を,ChNN に拡張する際に必要となる.さらに,ReLU の単純さにも関わらず,単一のReLU カオスニューロンでも動的に変化する出力を生成できることを示す.