Projecting Robot Intentions Through Visual Cues: Static vs. Dynamic Signaling

要約

拡張現実と複合現実の技術には、人間とロボットのコラボレーションを向上させる大きな可能性が秘められています。
ロボットの意図や目標を明示的に伝えるために、視覚的な信号や合図が人間のパートナーに投影される場合があります。
しかし、どのような種類の信号がそのようなプロセスをサポートするのか、またパートナーにさらなる認知的ストレスを与えずに信号を組み合わせることができるのかどうかは不明です。
この論文では、効果的な視覚信号の種類を特定し、経験的評価を通じてその影響を定量化することに焦点を当てています。
特に、この研究では、協調的な物体分類タスク内の静的視覚信号と動的視覚信号を比較し、人間の行動を形成する視覚信号の能力を評価します。
さらに、視覚信号と人間の行動の間の情報伝達の程度を数値化するために、情報理論分析が実行されます。
人間を対象とした実験の結果は、単一のタスク内で複数の視覚信号を組み合わせることに大きな利点があること、つまりタスクの効率が向上し、認知負荷が軽減されることを示しています。

要約(オリジナル)

Augmented and mixed-reality techniques harbor a great potential for improving human-robot collaboration. Visual signals and cues may be projected to a human partner in order to explicitly communicate robot intentions and goals. However, it is unclear what type of signals support such a process and whether signals can be combined without adding additional cognitive stress to the partner. This paper focuses on identifying the effective types of visual signals and quantify their impact through empirical evaluations. In particular, the study compares static and dynamic visual signals within a collaborative object sorting task and assesses their ability to shape human behavior. Furthermore, an information-theoretic analysis is performed to numerically quantify the degree of information transfer between visual signals and human behavior. The results of a human subject experiment show that there are significant advantages to combining multiple visual signals within a single task, i.e., increased task efficiency and reduced cognitive load.

arxiv情報

著者 Shubham Sonawani,Yifan Zhou,Heni Ben Amor
発行日 2023-08-19 01:18:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GR, cs.RO パーマリンク