要約
人間とロボットの間に信頼を構築することは、ロボット工学コミュニティの長年の関心となってきました。
ユーザーの信頼の形成に影響を与える要因を明らかにすることを目的としたさまざまな研究が行われています。
ヒューマン ロボット インタラクション (HRI) 環境では、信頼構築の重要な側面は、ロボットの動作を理解できるようにするロボットの能力です。
eXplainable Autonomous Robot (XAR) の概念は、この要件に対処します。
ただし、ロボットに一目瞭然の能力を与えるのは複雑な作業です。
ロボットの動作には、複数のスキルと多様なサブシステムが含まれます。
この複雑さにより、ロボットの動作に関する説明を生成するための幅広い方法の研究が行われました。
この論文では、ロボットで説明を生成するための既存の戦略を分析し、現在の XAR の傾向を研究する体系的な文献レビューを紹介します。
結果は、説明可能性システムにおける有望な進歩を示しています。
しかし、これらのシステムはまだ自律ロボットの複雑な動作を完全にカバーすることはできません。
さらに、説明可能性の理論的概念についてのコンセンサスが欠如していることも確認されており、説明可能性の方法とツールを評価するための堅牢な方法論の必要性も確認されています。
要約(オリジナル)
Building trust between humans and robots has long interested the robotics community. Various studies have aimed to clarify the factors that influence the development of user trust. In Human-Robot Interaction (HRI) environments, a critical aspect of trust development is the robot’s ability to make its behavior understandable. The concept of an eXplainable Autonomous Robot (XAR) addresses this requirement. However, giving a robot self-explanatory abilities is a complex task. Robot behavior includes multiple skills and diverse subsystems. This complexity led to research into a wide range of methods for generating explanations about robot behavior. This paper presents a systematic literature review that analyzes existing strategies for generating explanations in robots and studies the current XAR trends. Results indicate promising advancements in explainability systems. However, these systems are still unable to fully cover the complex behavior of autonomous robots. Furthermore, we also identify a lack of consensus on the theoretical concept of explainability, and the need for a robust methodology to assess explainability methods and tools has been identified.
arxiv情報
著者 | David Sobrín-Hidalgo,Ángel Manuel Guerrero-Higueras,Vicente Matellán-Olivera |
発行日 | 2024-12-24 15:53:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google