Improving Visual Perception of a Social Robot for Controlled and In-the-wild Human-robot Interaction

要約

ソーシャル ロボットは多くの場合、ユーザーと環境を理解するために視覚に依存します。
コンピューター ビジョンのデータ駆動型アプローチの最近の進歩により、深層学習モデルを適用してソーシャル ロボットの視覚認識を強化する大きな可能性が実証されました。
ただし、リソース効率の高い浅い学習モデルとは対照的に、深層学習手法では高い計算量が要求されるため、現実世界のインタラクションやユーザー エクスペリエンスへの影響に関して重要な疑問が生じます。
ソーシャルロボットが深層学習ベースの視覚認識モデルを採用した場合、客観的なインタラクションパフォーマンスと主観的なユーザーエクスペリエンスがどのように影響を受けるかは不明です。
私たちは、最先端の人間の知覚および追跡モデルを採用して、Pepper ロボットの視覚知覚機能を改善し、制御された実験室研究と野外での人間とロボットの相互作用研究を実施して、次のことを目的としたこの新しい知覚機能を評価しました。
特定のユーザーとシーン内に存在する他の人々。

要約(オリジナル)

Social robots often rely on visual perception to understand their users and the environment. Recent advancements in data-driven approaches for computer vision have demonstrated great potentials for applying deep-learning models to enhance a social robot’s visual perception. However, the high computational demands of deep-learning methods, as opposed to the more resource-efficient shallow-learning models, bring up important questions regarding their effects on real-world interaction and user experience. It is unclear how will the objective interaction performance and subjective user experience be influenced when a social robot adopts a deep-learning based visual perception model. We employed state-of-the-art human perception and tracking models to improve the visual perception function of the Pepper robot and conducted a controlled lab study and an in-the-wild human-robot interaction study to evaluate this novel perception function for following a specific user with other people present in the scene.

arxiv情報

著者 Wangjie Zhong,Leimin Tian,Duy Tho Le,Hamid Rezatofighi
発行日 2024-03-05 22:55:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク