抄録
人間がコミュニケーションをとる際に、相手の表情を認識することで、対話以外でも意思疎通を図っている。また、人間と機械が対話的に処理を進めていくシステム、例えば自律型ロボットに人間とのコミュニケーションをとらせる場合も同様に重要となる。そこで近年、マン-マシンインターフェイスとして、表情認識を利用するシステムが開発され、実用化が進められている。しかし、認識機能としては分類できる表情の種類が少ないことや、処理が完全に自動化されていないことからコミュニケーションに利用できるまでには至らない。そこで、本研究では、目や口等の各パーツの動き変化を自動的に捉えその動き方により表情を推測するシステムの開発を目的とする。