抄録
コンピュータグラフィックスによる発話顔アニメーションにおいて,発話にともなう自然な顔の動きは,リアリティの向上だけでなく,アニメーションを見る側の人間の発話の正確な知覚を促す上で重要である.本稿では複数の被験者やCGキャラクタから得た異なる複数の表情の顔形状について主成分分析を行い,得られた主成分の類似性を利用してモーションキャプチャシステムなどから得られた顔面の運動情報を,容易に他の人物やCGキャラクタに対してそれぞれに応じた動きとして投影するFacial Motion Mappingと呼ばれる新たな手法を提案する.この手法を用いれば,各キャラクタごとで同一のメッシュトポロジで代表的な表情形状さえそろえておけば,例えメッシュ構造が異なるキャラクタ間でも動きの投影が可能であり,しかも表情セットに含まれる,そのキャラクタ独特の形状の変化を,非常に少ないパラメータで表現できる.本稿ではその例として,三次元の人物・CGキャラクタおよび二次元の線画キャラクタを本手法を用いてアニメーション生成を行った.