2020 年 56 巻 5 号 p. 181-190
一般に,非接触型の視線入力装置では,使用開始前にキャリブレーションを必要としている.しかし,知的な遅れがあり身体を思うように動かすことが難しい重度重複障害者にとって,キャリブレーションの操作指示に従い視線を移動させることは困難である.専用の機器を必要とする手間がかかることも視線による意思表示を難しくしている.本研究では,意思表示に必要な分解能を維持しつつキャリブレーションを必要としないリアルタイム視線領域推定システムを構築した.通常のwebカメラを用い,目や顔の情報を畳み込みニューラルネットワーク(CNN)で学習することにより視線領域推定を実現している.次に,画面上に36か所の注視点を設け,カメラと顔までの相対的な距離および顔の姿勢角を変化させて評価実験を行った.その結果,基本姿勢において,距離については1,200 mm,位置では100 mm下方まで実用的な精度が維持されていることが確認された.姿勢角については1人の被験者のみを対象とした結果であるが,ヨー角10度,ピッチ角15度,ロール角15度までは精度が保たれることが確認された.