日本神経回路学会誌
Online ISSN : 1883-0455
Print ISSN : 1340-766X
ISSN-L : 1340-766X
解説
畳み込みニューラルネットワークに隠れたテンソルネットワークを探索する
林 浩平
著者情報
ジャーナル フリー

2022 年 29 巻 4 号 p. 193-201

詳細
抄録

畳み込みニューラルネットワーク(CNN)は画像など特定ドメインのデータの処理に対して高い性能を発揮することが知られている.しかしながら同時に計算能力も必要とするため,CNNの軽量化は深層学習コミュニティにおいて広く行われてきた.本稿ではテンソル分解を使ったCNNの軽量化に焦点を当てる.まずCNNのコンポーネントである畳み込み層の演算が,複数テンソル間の線形演算の表現方法であるテンソルネットワークによって記述できることを示す.次に畳み込み層の軽量化がテンソル分解によって特徴づけられること,またその分解方法もテンソルネットワークによって記述できることを示す.最後に可能な分解を探索することによって,予測精度と時間/空間複雑さのトレードオフを実験的に比較する.その結果,いくつかの非線形分解は既存の分解を凌駕することがわかった.なお,本原稿は著者らの論文1)を和訳しわかりやすく解説したものである.

著者関連情報
© 2022 日本神経回路学会
前の記事 次の記事
feedback
Top