Designing for Fairness in Human-Robot Interactions

要約

人間のコラボレーションを成功させる基盤は、公平性の原則に深く根ざしています。
ロボットが人間のグループやチームと一緒に働く社会のさまざまな場所でますます普及するにつれて、公平性の原則を理解し、それに基づいて行動するロボットの能力が効果的に統合するために重要になります。
これは、ロボットが複数人のチームに所属し、リソースの割り当てに関して継続的に決定を下さなければならない場合に特に重要です。
これらのリソースは、ツールなどの物質的なもの、または視線の方向などの伝達的なものである場合があり、最適なチーム パフォーマンスと健全なグループ ダイナミクスを確保するには、チーム メンバー間で公平に配分する必要があります。
したがって、私たちの研究は、ロボットがグループのダイナミクスと成果に積極的に貢献しながら、公正な意思決定を行うことで人間のグループ内にどのように効果的に参加できるかを理解することに焦点を当てています。
この論文では、ロボットが意思決定において人間の公平性の概念を確実に考慮できるようにするための進歩について説明します。

要約(オリジナル)

The foundation of successful human collaboration is deeply rooted in the principles of fairness. As robots are increasingly prevalent in various parts of society where they are working alongside groups and teams of humans, their ability to understand and act according to principles of fairness becomes crucial for their effective integration. This is especially critical when robots are part of multi-human teams, where they must make continuous decisions regarding the allocation of resources. These resources can be material, such as tools, or communicative, such as gaze direction, and must be distributed fairly among team members to ensure optimal team performance and healthy group dynamics. Therefore, our research focuses on understanding how robots can effectively participate within human groups by making fair decisions while contributing positively to group dynamics and outcomes. In this paper, I discuss advances toward ensuring that robots are capable of considering human notions of fairness in their decision-making.

arxiv情報

著者 Houston Claure
発行日 2024-05-31 17:38:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO パーマリンク