抄録
本研究は上肢の関節角度推定システムの開発に向けた複雑な動作を対象としたモデルの訓練および
評価を目的としている.提案する関節角度推定システムは,被験者の右腕の前腕に装着したウェアラブル
センサで取得したデータをDNNに入力することで,右腕全体の関節角度を出力する.筆者らの従来研究
では手を閉じて開くという単純な動作を対象としていた.本研究では右腕全体を動かす動作を対象とした.
訓練データの収集のため,U-Limbの研究から抜粋したジェスチャー「バッドポーズ」(10秒間)を被験者1
名で5回実施した.ウェアラブルセンサとしてMyo Gesture Control Arm bandを用いた.データの欠損およ
び誤検出を抑制するためWeb カメラを2台導入し,手指および上肢をそれぞれ撮影した. Google
MediaPipeを用いて動画像から右肩から指先までの25点のランドマークを取得した.2台のカメラで記録さ
れたランドマークはアフィン変換を用いて共通の座標系へ統一した.ランドマーク座標から右腕の23関節
の仰角および方位角を算出し,これらを訓練データとして用いた.U-NetベースのDNNモデルを構築し,
5-foldクロスバリデーションによる評価を実施した.テストデータにおける関節角度推定誤差の平均は0.127
radであり、右腕全体を動かす動作でも関節角度を推定可能であることを示した.