これまでロボットの聴覚機能に関する研究は,人間とのソーシャルインタラクションで最も重要であるにもかかわらず,あまり行われていなかった.また,ロボット聴覚を実現するために,実環境・実時間処理という観点から問題点は指摘されてきたものの,これらを体系的にまとめた報告はなかった.そこで,本研究では,まず,ロボット聴覚の課題を体系的に整理し,解決に向けた具体的な方法を議論する.そして,アクティブな動作はロボット聴覚の向上に本質的であると捉え,これをロボット聴覚に適用したアクティブ
オーディション
を提案する.また,複数の聴覚情報の統合,聴覚情報以外の感覚情報との統合を行うことによる知覚向上およびより一般的な処理を目指したロボットによる一般的な音(混合音)の理解についても併せて議論する.実際に上半身ヒューマノイドロボットSIG(http://winnie.kuis.kyoto-u.ac.jp/SIG/)上に構築したシステムは,ロボットに特有な動作時のノイズをキャンセルすることで,アクティブな動作の聴覚処理への利用を可能とした.また,アクティブな動作を効果的に用いることにより,視聴覚統合による話者の定位・追跡,注意を向けた方向の音源を実時間で抽出できるアクティブ方向通過型フィルタによる音源分離,分離音の音声認識といった機能を実現した.システムの各機能およびシステム全体を通した統合評価を通じて,アクティブ
オーディション
,感覚情報の統合,一般音理解の有効性・ロバスト性,ヒューマン・ロボットインタフェースとしての有効性を示した.
抄録全体を表示