Steps Towards Satisficing Distributed Dynamic Team Trust

要約

動的なマルチエージェント チームの信頼を定義および測定することは、さまざまな状況、特に防衛およびセキュリティのドメインにおいて重要です。
チームメンバーは、合意された目標に向かって、共有の価値観に従って働くと信頼されるべきです。
この論文では、人間とロボットの両方が解釈可能であり、したがって使用できる方法で「信頼」を定義できるような、目標と価値の定義に関心を持っています。
私たちは、チーム活動の結果は「目標」、「個人/チームの価値観」、「法的原則」の観点から考慮できると主張します。
私たちは、調整が「個人/チームの価値観」のレベルで可能なのか、それとも「目標」と「法的原則」のレベルでのみ可能なのかを疑問に思っています。
私たちは、人間またはロボットのチームメンバーが解釈できる、人間とロボットのチームの信頼を定義するための一連の指標を主張し、シミュレートされたミッションの過程で「信頼を満たす」という概念を実証できる実験を検討します。

要約(オリジナル)

Defining and measuring trust in dynamic, multiagent teams is important in a range of contexts, particularly in defense and security domains. Team members should be trusted to work towards agreed goals and in accordance with shared values. In this paper, our concern is with the definition of goals and values such that it is possible to define ‘trust’ in a way that is interpretable, and hence usable, by both humans and robots. We argue that the outcome of team activity can be considered in terms of ‘goal’, ‘individual/team values’, and ‘legal principles’. We question whether alignment is possible at the level of ‘individual/team values’, or only at the ‘goal’ and ‘legal principles’ levels. We argue for a set of metrics to define trust in human-robot teams that are interpretable by human or robot team members, and consider an experiment that could demonstrate the notion of ‘satisficing trust’ over the course of a simulated mission.

arxiv情報

著者 Edmund R. Hunt,Chris Baber,Mehdi Sobhani,Sanja Milivojevic,Sagir Yusuf,Mirco Musolesi,Patrick Waterson,Sally Maynard
発行日 2023-09-11 10:58:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.RO パーマリンク