ロボティクス・メカトロニクス講演会講演概要集
Online ISSN : 2424-3124
セッションID: 2P2-M02
会議情報
2P2-M02 速度分散最小化変換によるマルチモーダル情報からの状態表現の獲得(脳・神経・認知ロボティクス)
西川 輝彦港 隆史荻野 正樹浅田 稔
著者情報
会議録・要旨集 フリー

詳細
抄録
This paper proposes a hierarchical model which is composed of a slow feature analysis (SFA) network to extract multi-modal representation of a humanoid robot. The experiment with humanoid robot shows that the network can integrate multi-modal information and detect semantic features by the extraction of the slowly varying features from the high-dimensional input sensory signal, and it shows that the multi-modal representation is useful as state representation for reinforcement learning compared with using state representation without the integration of the multi-modal information.
著者関連情報
© 2011 一般社団法人 日本機械学会
前の記事 次の記事
feedback
Top