要約
人間がロボットと対話する場合、影響は避けられません。
人間の近くを走行する自動運転車を考えてみましょう。自動運転車の速度とステアリングは、人間の運転方法に影響します。
これまでの研究では、ロボットが人間に望ましい行動に向けて影響を与えることを可能にするフレームワークが開発されてきました。
しかし、これらのアプローチは短期的には効果がありますが(つまり、最初の数回の人間とロボットの相互作用)、ここでは長期的な影響(つまり、同じ人間とロボットの間で繰り返される相互作用)を調査します。
私たちの中心的な洞察は、人間は動的であるということです。人間はロボットに適応しており、人間がロボットの行動を予測することを学ぶと、現在影響力を持っている行動は不十分になる可能性があります。
この洞察により、私たちは、影響力のあるロボットの動作を生成するために広く普及しているゲーム理論の形式主義が、相互作用が繰り返されると効果が薄れることを実験的に示しました。
次に、ロボットのポリシーに影響力と予測不可能性を与える、Stackelberg ゲームへの 3 つの修正を提案します。
最後に、これらの変更をシミュレーションとユーザー調査にわたってテストします。私たちの結果は、意図的に動作を予測しにくくしたロボットのほうが、長期的なインタラクションを通じて影響力を維持できることを示唆しています。
ここでビデオをご覧ください: https://youtu.be/ydO83cgjZ2Q
要約(オリジナル)
When humans interact with robots influence is inevitable. Consider an autonomous car driving near a human: the speed and steering of the autonomous car will affect how the human drives. Prior works have developed frameworks that enable robots to influence humans towards desired behaviors. But while these approaches are effective in the short-term (i.e., the first few human-robot interactions), here we explore long-term influence (i.e., repeated interactions between the same human and robot). Our central insight is that humans are dynamic: people adapt to robots, and behaviors which are influential now may fall short once the human learns to anticipate the robot’s actions. With this insight, we experimentally demonstrate that a prevalent game-theoretic formalism for generating influential robot behaviors becomes less effective over repeated interactions. Next, we propose three modifications to Stackelberg games that make the robot’s policy both influential and unpredictable. We finally test these modifications across simulations and user studies: our results suggest that robots which purposely make their actions harder to anticipate are better able to maintain influence over long-term interaction. See videos here: https://youtu.be/ydO83cgjZ2Q
arxiv情報
著者 | Shahabedin Sagheb,Ye-Ji Mun,Neema Ahmadian,Benjamin A. Christie,Andrea Bajcsy,Katherine Driggs-Campbell,Dylan P. Losey |
発行日 | 2023-09-05 20:41:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google