Perception of Emotions in Human and Robot Faces: Is the Eye Region Enough?

要約

次世代ソーシャルロボットの開発に対する関心の高まりにより、ロボットの感情の知覚に影響を与える要因について疑問が生じています。
この研究では、ロボットの外観 (人間的、機械的) と顔の領域 (顔全体、目の領域) が人間のロボットの感情の認識に及ぼす影響を調査します。
被験者間のユーザー調査 (N = 305) が実施され、参加者はロボットの顔のビデオに表示されている感情と人間のベースラインを特定するよう求められました。
私たちの調査結果は、ヒューマン ロボット インタラクション (HRI) における効果的なソーシャル ロボットの顔デザインに関する 3 つの重要な洞察を明らかにしました。 まず、ロボットは、より人間に似ているか、より機械的に見えるかに関係なく、背面投影された完全にアニメーション化された顔を備えています。
人間と同等の感情表現能力を発揮します。
第二に、目領域のみが表示されている場合、人間もロボットも感情表現の認識精度が低下します。
最後に、目の領域のみが見えるという制約の中で、より人間に近い特徴を備えたロボットは感情認識を大幅に強化します。

要約(オリジナル)

The increased interest in developing next-gen social robots has raised questions about the factors affecting the perception of robot emotions. This study investigates the impact of robot appearances (humanlike, mechanical) and face regions (full-face, eye-region) on human perception of robot emotions. A between-subjects user study (N = 305) was conducted where participants were asked to identify the emotions being displayed in videos of robot faces, as well as a human baseline. Our findings reveal three important insights for effective social robot face design in Human-Robot Interaction (HRI): Firstly, robots equipped with a back-projected, fully animated face – regardless of whether they are more human-like or more mechanical-looking – demonstrate a capacity for emotional expression comparable to that of humans. Secondly, the recognition accuracy of emotional expressions in both humans and robots declines when only the eye region is visible. Lastly, within the constraint of only the eye region being visible, robots with more human-like features significantly enhance emotion recognition.

arxiv情報

著者 Chinmaya Mishra,Gabriel Skantze,Peter Hagoort,Rinus Verdonschot
発行日 2024-10-18 09:50:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO パーマリンク