Gaze estimation learning architecture as support to affective, social and cognitive studies in natural human-robot interaction

要約

視線は、あらゆる対話シナリオにおいて重要な社会的合図であり、社会的認知の多くのメカニズム (共同および共有の注意、人間の意図の予測、調整タスク) を駆動します。
視線の方向は、感情の捉え方に影響を与える社会的および感情的機能を示します。
社会的能力を与える具現化されたヒューマノイドロボットは、関与と生態学的妥当性を高めながら、人間の社会的認知の多くのメカニズムを解明するための洗練された刺激として見なすことができるという証拠が示されています。
この文脈において、ロボットのセンサーのみに依存して人間の視線を自動的に推定するロボット認識システムを構築することは依然として困難です。
この論文の主な目的は、外部ハードウェアを使用せずにテーブルトップのシナリオで人間の視線方向を推定する学習ロボット アーキテクチャを提案することです。
テーブルトップ タスクは、エージェントが対面での対話を維持しながら共同作業できる多数のシナリオを実装するのに適しているため、実験心理学の多くの研究で主に使用されています。
このようなアーキテクチャは、外部ハードウェアが人間の自発的行動の障害となる可能性がある研究、特に研究室よりも管理が不十分な環境(臨床現場など)で貴重なサポートを提供できます。
人型ロボット iCub を使用して、異なる視線条件で 24 人の参加者から注釈が付けられた画像を含む、新しいデータセットも収集されました。

要約(オリジナル)

Gaze is a crucial social cue in any interacting scenario and drives many mechanisms of social cognition (joint and shared attention, predicting human intention, coordination tasks). Gaze direction is an indication of social and emotional functions affecting the way the emotions are perceived. Evidence shows that embodied humanoid robots endowing social abilities can be seen as sophisticated stimuli to unravel many mechanisms of human social cognition while increasing engagement and ecological validity. In this context, building a robotic perception system to automatically estimate the human gaze only relying on robot’s sensors is still demanding. Main goal of the paper is to propose a learning robotic architecture estimating the human gaze direction in table-top scenarios without any external hardware. Table-top tasks are largely used in many studies in experimental psychology because they are suitable to implement numerous scenarios allowing agents to collaborate while maintaining a face-to-face interaction. Such an architecture can provide a valuable support in studies where external hardware might represent an obstacle to spontaneous human behaviour, especially in environments less controlled than the laboratory (e.g., in clinical settings). A novel dataset was also collected with the humanoid robot iCub, including images annotated from 24 participants in different gaze conditions.

arxiv情報

著者 Maria Lombardi,Elisa Maiettini,Agnieszka Wykowska,Lorenzo Natale
発行日 2024-10-25 08:21:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク