アリストテレスの時代から、「言語」はヒトと動物を隔てる決定的な性質であると考えられてきました。私たち人間は、単語を用いて物 事を示したり、それらを組み合わせて文章をつくり会話しますが、動物の鳴き声は単なる感情の表れにすぎないと捉えられてきたのです。 しかし、この二分は本当に正しいのでしょうか?たしかに、感情を伝える音声だけでもうまく意思疎通がとれる動物もいるでしょうが、 研究者たちは動物たちのコミュニケーションをどれほど詳細に解明できているのでしょうか?私は、この疑問を胸に、シジュウカラの鳴 き声について研究を続けてきました。シジュウカラは都市部から山地まで広く見られる私たちに身近な野鳥です。15年以上にわたる野外研究の成果として、シジュウカラは 捕食者の種類を示したり仲間を集めたりするための様々な鳴き声をもつことがわかってきました。さらに、彼らはこれらの鳴き声を組み合 わせ、より複雑なメッセージまで作ることができるのです。さらに、野外において認知実験をおこなうことで、聞き手のシジュウカラは、鳴き声の示す対象をイメージしたり、音列に文法のルール を当てはめることで情報を読み解いていることもわかってきました。これらの発見は、私たちが普段会話のなかで使っている認知能力を動 物において初めて実証した成果であり、言語の進化に迫る上でも大きな糸口を与えるはずです。本講演では、上記の研究内容を紹介しながら、野外観察や行動実験から動物たちの豊かな会話の世界にどのように迫れるのか、その新た な学問の枠組み(動物言語学)についてもご紹介したいと思います。
In this paper, we try to use robot audition techniques to investigate the soundscape of bird and cicada vocalizations based on azimuth and elevation localization.
野鳥の生態観測のための全天録画画像から、実際に野鳥の録画されている時間帯を切り出す手法について検討を行った。野鳥に対する画像解像度が低く、また、樹木の枝などでのオクルージョンが繰り返されるため、通常の物体検出、物体追跡手法では対応が難しい。野鳥自体の動き、野鳥による樹木の枝の動きを手掛かりとして、検出・追跡を行う手法について検討した。
本稿では,ロボット聴覚オープンソースソフトウェア HARK 3.4 で新規に導入されるPyHARK をHARK講習会に先立ち紹介する。PyHARK は HARK の Python インタフェースを提供するパッケージであり,Python から HARK の機能のオンライン・オフライン呼び出しを可能にする実装である。そのアーキテクチャ,既存のHARKとの違い,使い方を中心に解説する。
本講演では、実環境下でのリアルタイム音声コミュニケーションを支援することを目的として開発中の、ユーザが指定した話者の音声の みを強調し、リアルタイムで認識・翻訳して表示を行うARグラスについて紹介する。ARグラスに搭載されたマイクアレイから得られる 音響信号は、未知の環境における多数の音声・雑音・残響が重畳したものであり、音源の移動、さらにはユーザの移動や頭部の動きに影響 を受けるため、研究室環境のベンチマークとは本質的に難しさが異なる。それでもなお、頑健性と応答性を備えた実用システムを開発する ための技術的なチャレンジについて解説する。
ドローンを用いた被災者探索のための音源探査技術において、これまで、ドローン自身の雑音に対する耐性の獲得を目的に、ヒストグラム情報を用いて空間スペクトルにおける雑音の除去を動的に行う音源定位手法の提案を行った。本稿では、雑音と目標音の方向が近い場合に定位性能が低下するといった問題点を解決するために、周波数方向の情報を用いて定位性能を向上させる手法について検討を行う。
本稿では,マイクロホンアレイの形状,すなわち各マイクロホンの位置をキャリブレーションする手法について述べる.特殊な試験音ではなく任意の混合音を入力とするため,(1)基準位置に基づくマイクロホン位置の事前確率、(2)音源スペクトルの事前確率、(3)録音スペクトルの条件付確率の3つの確率の積として定義されるスペクトルの確率的生成モデルに基づく反復アルゴリズムで推定を行う.