人工知能学会全国大会論文集
第34回 (2020)
セッションID: 2J5-GS-2-02
会議情報

償却推論にもとづいた継続学習
*川島 寛乃河野 慎熊谷 亘松井 考太中澤 仁
著者情報
会議録・要旨集 フリー

詳細
抄録

継続学習において,逐次的に複数のタスクを学習した際に過去のタスクの精度が著しく下がる破滅的忘却を防ぎながら,かつタスクの増加に対応できる手法の研究が盛んに行われている.本研究では,過去のタスクのネットワークの保存,訓練データを追加した学習を行うことのない新たな手法として,Neural Processの構造を基にしたAmortized Continual Learning Model(CALM)を提案する.CALMはタスク固有の重みを算出するTask Weight Encoder(TE)および入力データの特徴量抽出を行うFeature Extractor(FE)の2つのニューラルネットから構成される.入力画像の特徴量にタスク固有の重みを適用することで,全タスクで共通のネットワークを用いながら,タスク固有の出力を可能とする.実験ではSplit-MNISTのタスク増分学習に取り組み,提案手法を用いた際に逐次的に学習した場合もタスクの精度が保たれることを検証した.

著者関連情報
© 2020 一般社団法人 人工知能学会
前の記事 次の記事
feedback
Top