要約
共同作業では効果的なコミュニケーションが不可欠であるため、人間と一緒に作業する AI 搭載ロボットが効果的に協力して信頼を得るには、その動作を説明できる必要があります。
私たちは、模擬緊急対応タスクを完了するために協力する人間の参加者間のコミュニケーションを分析し、分類します。
この分析により、説明可能な AI 文献で特定されたさまざまな種類のインタラクティブな説明に関連するメッセージが特定されます。
これにより、そのような環境で人間がチームメイトにどのような説明を期待しているのか、つまりAIを搭載したロボットがどこで説明能力を最も必要としているのかを理解できるようになります。
ほとんどの説明関連のメッセージは、決定またはとられたアクションの明確化を求めていることがわかります。
また、メッセージがシミュレートされたタスクのパフォーマンスに影響を与えることも確認しました。
要約(オリジナル)
Effective communication is essential in collaborative tasks, so AI-equipped robots working alongside humans need to be able to explain their behaviour in order to cooperate effectively and earn trust. We analyse and classify communications among human participants collaborating to complete a simulated emergency response task. The analysis identifies messages that relate to various kinds of interactive explanations identified in the explainable AI literature. This allows us to understand what type of explanations humans expect from their teammates in such settings, and thus where AI-equipped robots most need explanation capabilities. We find that most explanation-related messages seek clarification in the decisions or actions taken. We also confirm that messages have an impact on the performance of our simulated task.
arxiv情報
著者 | Marc Roig Vilamala,Jack Furby,Julian de Gortari Briseno,Mani Srivastava,Alun Preece,Carolina Fuentes Toro |
発行日 | 2024-11-19 13:07:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google