2011 年 40 巻 5 号 p. 833-841
タッチパッドなどを用い,ジェスチャによる直観的な操作が可能なマンマシンインタフェースが普及しつつある.今後,より幅広い情報処理機器や利用シーンに展開していくためには,機器に搭載されるカメラからの映像入力を用いたジェスチャ認識の重要性が増していくと考えられる.しかし従来の研究は,複数のカメラや距離センサなどのデバイスを併用した複雑な構成のものが多く,アルゴリズムも単色背景を前提としたものや,多くの演算量を必要とするものなど,実用性に問題があった.本稿は,単眼カメラから撮影された入力に対し,複雑な背景下で両手領域の追跡を高精度かつ実時間で処理可能な物体追跡アルゴリズムを提案する.オプティカルフローの一種であるKLT Trackerをベースとして,差分・色情報の利用,特徴点集合の決定などを加えることで,演算量や動きベクトルの誤検出を削減し,高精度化と低演算化の両立を可能にしている.提案アルゴリズムをPC上にソフトウェア実装し,両手の移動・学習データでは対応できない形状変化を行うなどのテスト動画を用いて評価した結果,従来例の問題点を解消した両手領域の追跡が可能なことを実証した.また,処理可能なフレーム数は1秒間に13~16フレームで,標準的な両手動作を実時間で追跡・認識可能なことを確認した.