東京大学総合文化研究科
2021 年 50 巻 2 号 p. 257-283
(EndNote、Reference Manager、ProCite、RefWorksとの互換性あり)
(BibDesk、LaTeXとの互換性あり)
本稿では,深層学習の原理を説明する汎化誤差の理論を概観する.深層学習は,多層ニューラルネットワークをモデルとして用いる統計的手法の一つで,その高い性能から脚光を浴びて久しい.しかしながら,その多層モデルがもたらす複雑な性質により,高い性能を発揮する仕組みの解明は未だ発展途上である.本稿は,この性能の原理を説明する試みのうち,特にモデルの近似誤差や推定量の複雑性誤差に焦点を当て,解明された部分と未解明な部分を議論する.
すでにアカウントをお持ちの場合 サインインはこちら