抄録
自己の身体表現や周囲の空間表現は,自身の運動を行う際に知覚される様々な感覚情報を時間的,空間的に統合することで獲得されると考えられるが,その情報処理過程は未解明な部分が多い.本研究では上位層のニューロンほど時間的,空間的に広い情報を表現するという仮説のもとに,ロボットが環境との相互作用の経験から得られるセンサ情報を階層的に統合するモデルを提案する.各階層ではセンサ情報から低速に変化する特徴量を抽出し,それを繰り返すことで自律的にマルチモーダルな表現を獲得可能であることを示す.シミュレーション環境において自己の身体運動に関わるマルチモーダル情報が提案手法により低次元の低速度で変化する情報に変換されることを示す.