筆者らは,多視点画像からの高精度な被写体3次元モデル構築を目標に,各撮影視点のマスク画像とそれらに視体積交差法を適用して構築されるボクセルデータ(Visual Hull,VH)双方の精度を逐次的に向上させる3次元モデルフィードバック型背景分離方式を提案してきた.各マスク画像とVH間において,欠損修復および不要部除去に関する処理結果を繰り返しフィードバックさせることにより,多視点から得られる画像情報を統合的に扱い,互いに補完することが可能となる.本稿では,VHを基にした被写体の3次元位置情報と,シルエット色情報を用いて,従来方式では除去することが不可能であった不要部を除去する手法を提案する.さらに,これらの手法を一連のフィードバック処理に組み込むことで,既提案の3次元モデルフィードバック型背景分離方式の拡張を行う.複数の人物が映った複雑な多視点画像を対象に実験を行った結果,従来は除去不可能であった領域を除去することができ,本方式の有効性が示された.
抄録全体を表示