要約
人間とロボットの間の信頼の構築は、ロボットコミュニティに長い間興味を持っています。
さまざまな研究が、ユーザーの信頼の開発に影響を与える要因を明確にすることを目的としています。
人間とロボットの相互作用(HRI)環境では、信頼開発の重要な側面は、その行動を理解できるようにするロボットの能力です。
説明可能な自律ロボット(XAR)の概念は、この要件に対処します。
ただし、ロボットの自己実験能力を与えることは複雑なタスクです。
ロボットの動作には、複数のスキルと多様なサブシステムが含まれます。
この複雑さは、ロボットの動作に関する説明を生成するための幅広い方法の研究につながりました。
このペーパーでは、ロボットで説明を生成するための既存の戦略を分析し、現在のXARの傾向を研究する系統的な文献レビューを提示します。
結果は、説明可能性システムの有望な進歩を示しています。
ただし、これらのシステムは、自律的なロボットの複雑な動作を完全にカバーすることができません。
さらに、説明可能性の理論的概念に関するコンセンサスの欠如、および説明可能性の方法とツールを評価するための堅牢な方法論の必要性も特定されています。
要約(オリジナル)
Building trust between humans and robots has long interested the robotics community. Various studies have aimed to clarify the factors that influence the development of user trust. In Human-Robot Interaction (HRI) environments, a critical aspect of trust development is the robot’s ability to make its behavior understandable. The concept of an eXplainable Autonomous Robot (XAR) addresses this requirement. However, giving a robot self-explanatory abilities is a complex task. Robot behavior includes multiple skills and diverse subsystems. This complexity led to research into a wide range of methods for generating explanations about robot behavior. This paper presents a systematic literature review that analyzes existing strategies for generating explanations in robots and studies the current XAR trends. Results indicate promising advancements in explainability systems. However, these systems are still unable to fully cover the complex behavior of autonomous robots. Furthermore, we also identify a lack of consensus on the theoretical concept of explainability, and the need for a robust methodology to assess explainability methods and tools has been identified.
arxiv情報
著者 | David Sobrín-Hidalgo,Ángel Manuel Guerrero-Higueras,Vicente Matellán-Olivera |
発行日 | 2025-01-30 11:19:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google