Value Alignment and Trust in Human-Robot Interaction: Insights from Simulation and User Study

要約

AI テクノロジーの出現により、人間とロボットが協力して共同タスクを実行することがますます増えています。
スムーズで効果的なコラボレーションを可能にするために、ロボットと人間の間の価値の調整(ここではタスク内の動的な目標の調整の度合いとして運用されます)というテーマが研究の注目を集めています。
価値観の調整に関するこれまでの文献では、ロボットの価値観を人間の価値観と調整することがチームに利益をもたらすという本質的な仮定がなされています。
ただし、この仮定は経験的に検証されていません。
さらに、先行文献では、人間とロボットの価値観の一致を分析する際に、ロボットに対する人間の信頼を説明していません。
したがって、次の 2 つの質問に答えることで、研究上のギャップを埋める必要があります: 価値観の一致は信頼にどのように影響しますか?
ロボットの価値観を人間の価値観と一致させることは常に有益なのでしょうか?
これらの質問に答えるために、シミュレーション研究と人間を対象とした研究を紹介します。
シミュレーション研究の結果は、タスクの全体的なリスク レベルが高い場合、信頼にとって値の調整が重要であることを示しています。
また、インタラクション中にロボットの値を人間の値と一致させるために逆強化学習 (IRL) を使用するロボットの適応戦略も紹介します。
私たちのシミュレーションは、このような適応戦略が人間の価値観の全範囲にわたって信頼を維持できることを示唆しています。
また、シミュレーションによるこれらの発見を検証する実証研究の結果も紹介します。
結果は、ロボットが人間の価値観について十分な事前情報を持っていない場合、リアルタイムのパーソナライズされた価値観の調整が信頼性と人間による知覚パフォーマンスに有益であることを示しています。

要約(オリジナル)

With the advent of AI technologies, humans and robots are increasingly teaming up to perform collaborative tasks. To enable smooth and effective collaboration, the topic of value alignment (operationalized herein as the degree of dynamic goal alignment within a task) between the robot and the human is gaining increasing research attention. Prior literature on value alignment makes an inherent assumption that aligning the values of the robot with that of the human benefits the team. This assumption, however, has not been empirically verified. Moreover, prior literature does not account for human’s trust in the robot when analyzing human-robot value alignment. Thus, a research gap needs to be bridged by answering two questions: How does alignment of values affect trust? Is it always beneficial to align the robot’s values with that of the human? We present a simulation study and a human-subject study to answer these questions. Results from the simulation study show that alignment of values is important for trust when the overall risk level of the task is high. We also present an adaptive strategy for the robot that uses Inverse Reinforcement Learning (IRL) to match the values of the robot with those of the human during interaction. Our simulations suggest that such an adaptive strategy is able to maintain trust across the full spectrum of human values. We also present results from an empirical study that validate these findings from simulation. Results indicate that real-time personalized value alignment is beneficial to trust and perceived performance by the human when the robot does not have a good prior on the human’s values.

arxiv情報

著者 Shreyas Bhat,Joseph B. Lyons,Cong Shi,X. Jessie Yang
発行日 2024-05-28 16:20:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク