Accelerating Interface Adaptation with User-Friendly Priors

要約

ロボットは多くの場合、人間のユーザーに情報を伝達する必要があります。
たとえば、ロボットは視覚、聴覚、触覚インターフェイスを活用して、ロボットの意図を表示したり、内部状態を表現したりできます。
一部のシナリオでは、これらの信号の意味について社会的に合意された慣例があります。たとえば、赤信号は自動運転車が速度を落としていることを示します。
しかし、ロボットが新しい機能を開発し、より複雑なデータを伝達しようとするにつれて、その信号の背後にある意味が常に相互に理解されるわけではありません。あるユーザーは、点滅するライトは自動運転車が攻撃的なドライバーであることを示していると考えるかもしれませんが、別のユーザーは同じ信号が意味するものだと考えるかもしれません。
自動運転車は防御的です。
この論文では、人間の個人的な解釈がロボットの意味と一致するように、ロボットがそのインターフェイスを現在のユーザーに適応できるようにします。
私たちは、情報理論に基づいたエンドツーエンドのアプローチから開始し、インターフェース ポリシーを自動的に調整して人間とロボットの間の関係を最適化します。
しかし、この学習ポリシーが直観的であることを保証し、インターフェイスが人間にどれだけ早く適応するかを加速するために、インターフェイスがどのように機能すべきかについては人間が事前に知っていることを私たちは認識しています。
たとえば、人間はインターフェイス信号が比例的で凸状であることを期待します。
私たちのアプローチは、ロボットのインターフェースをこれらの事前条件に基づいてバイアスし、社会的な期待に従いながら、現在のユーザーに適応した信号を生成します。
15ドルの参加者を対象とした私たちのシミュレーションとユーザー調査の結果は、これらの事前設定がロボットと人間のコミュニケーションを改善することを示唆しています。
ここでビデオをご覧ください: https://youtu.be/Re3OLg57hp8

要約(オリジナル)

Robots often need to convey information to human users. For example, robots can leverage visual, auditory, and haptic interfaces to display their intent or express their internal state. In some scenarios there are socially agreed upon conventions for what these signals mean: e.g., a red light indicates an autonomous car is slowing down. But as robots develop new capabilities and seek to convey more complex data, the meaning behind their signals is not always mutually understood: one user might think a flashing light indicates the autonomous car is an aggressive driver, while another user might think the same signal means the autonomous car is defensive. In this paper we enable robots to adapt their interfaces to the current user so that the human’s personalized interpretation is aligned with the robot’s meaning. We start with an information theoretic end-to-end approach, which automatically tunes the interface policy to optimize the correlation between human and robot. But to ensure that this learning policy is intuitive — and to accelerate how quickly the interface adapts to the human — we recognize that humans have priors over how interfaces should function. For instance, humans expect interface signals to be proportional and convex. Our approach biases the robot’s interface towards these priors, resulting in signals that are adapted to the current user while still following social expectations. Our simulations and user study results across $15$ participants suggest that these priors improve robot-to-human communication. See videos here: https://youtu.be/Re3OLg57hp8

arxiv情報

著者 Benjamin A. Christie,Heramb Nemlekar,Dylan P. Losey
発行日 2024-03-11 22:26:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク