主催: 人工知能学会
会議名: 第104回言語・音声理解と対話処理研究会
回次: 104
開催地: 広島大学 東広島キャンパス 法人本部 4階会議室
開催日: 2025/09/08 - 2025/09/09
p. 15-18
精神的不調を周囲に隠している,あるいは本人に自覚が無い段階で早期に察知できれば,早期の受診や治療によって重篤化を防ぐことが可能である.しかし,従来手法では皮膚温度や心拍数など接触型デバイスを用いなければ計測できない情報からの推定が主であった.そこで本研究ではマイクおよびカメラなど非接触デバイスで取得できる表情および発話音声を用いて,個人が隠している緊張状態を推定する手法を提案する.実験では,被験者による自己申告を基準として緊張度をラベル付けし,機械学習モデルを構築した.その結果、表情と音声の両情報を組み合わせることで正解率0.74の推定モデルを得ることができた.さらに,緊張が表情に出やすい人と口調に出やすい人が存在する可能性に着目し,各特徴量に対する有意差検定を行った結果,表情筋が弛緩していると表情から緊張が認識しづらい,相手を向いて話していると緊張が口調に出やすいという傾向が確認された.