2019 年 Annual57 巻 Abstract 号 p. S3_2
近年のAI技術の進展により手術支援ロボットの自律化に向けた研究が着目されている.本研究では,特に,ステレオ内視鏡により得られるRGB画像およびデプス画像,ならびに,光学式3次元計測情報を適切に処理・融合することにより,手術支援ロボットの自律レベル向上に貢献できる様々な術中センシング技術の開発を,文部科学省科研費・新学術領域研究(多元計算解剖学)の一環で実施した。(1)内視鏡把持ロボットの自律制御のための有用な情報であると考えられる内視鏡画像中の手術器具の先端位置を実時間で視覚追跡する基本アルゴリズムを開発した.(2)さらに,デプス画像を併用することにより,互いに重なり合う手術器具の追跡手法ならびに手術器具と臓器の接触推定手法の開発を行った.(3)手術器具把持ロボットの自律制御を視野に入れ,臓器牽引(カウンタートラクション)時における手術器具先端荷重推定システムの開発を行った.(4)手術器具先端から臓器表面までの距離の推定手法,ならびに,手術器具の方向制御手法の開発を行った.(5)様々な内視鏡手術視野評価指標の設計を行い,内視鏡把持ロボットを用いた被験者実験により,その有用性の検討を行った.