Improving Trust Estimation in Human-Robot Collaboration Using Beta Reputation at Fine-grained Timescales

要約

人間は相互に対話するとき、認識された信頼に基づいて行動を調整します。
ただし、同様の適応性を実現するには、ロボットは、人間とロボットのコラボレーション タスク中に、十分に細かいタイムスケールで人間の信頼を正確に推定する必要があります。
ベータ評価は、人間の信頼を数学的に推定する一般的な方法です。
ただし、バイナリ パフォーマンスに依存しており、各タスクが完了した後にのみ信頼推定が更新されます。
さらに、報酬関数を手動で作成するのはパフォーマンス指標を構築する一般的な方法であり、労力と時間がかかります。
これらの制限により、コラボレーション タスク全体を通じてより詳細なタイムスケールで信頼の継続的な変化を効率的に取得することができなくなります。
したがって、この論文では、きめ細かいタイムスケールでのベータ評判を使用して人間の信頼を推定するための新しいフレームワークを紹介します。
ベータ評価の粒度を実現するために、継続的な報酬値を利用して、タスクの各タイムステップで信頼推定値を更新します。
最大エントロピー最適化を使用して連続報酬関数を構築し、パフォーマンス指標の面倒な仕様の必要性を排除します。
提案されたフレームワークは、精度を向上させ、報酬関数を手動で作成する必要性を排除し、よりインテリジェントなロボットの開発に向けて前進することにより、信頼推定を改善します。
ソースコードは公開されています。
https://github.com/resuldagdanov/robot-learning-human-trust

要約(オリジナル)

When interacting with each other, humans adjust their behavior based on perceived trust. However, to achieve similar adaptability, robots must accurately estimate human trust at sufficiently granular timescales during the human-robot collaboration task. A beta reputation is a popular way to formalize a mathematical estimation of human trust. However, it relies on binary performance, which updates trust estimations only after each task concludes. Additionally, manually crafting a reward function is the usual method of building a performance indicator, which is labor-intensive and time-consuming. These limitations prevent efficiently capturing continuous changes in trust at more granular timescales throughout the collaboration task. Therefore, this paper presents a new framework for the estimation of human trust using a beta reputation at fine-grained timescales. To achieve granularity in beta reputation, we utilize continuous reward values to update trust estimations at each timestep of a task. We construct a continuous reward function using maximum entropy optimization to eliminate the need for the laborious specification of a performance indicator. The proposed framework improves trust estimations by increasing accuracy, eliminating the need for manually crafting a reward function, and advancing toward developing more intelligent robots. The source code is publicly available. https://github.com/resuldagdanov/robot-learning-human-trust

arxiv情報

著者 Resul Dagdanov,Milan Andrejevic,Dikai Liu,Chin-Teng Lin
発行日 2024-11-04 07:46:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.LG, cs.RO パーマリンク