Enhancing Trust in Autonomous Agents: An Architecture for Accountability and Explainability through Blockchain and Large Language Models

要約

人間の対話を伴う環境に自律エージェントを導入すると、セキュリティ上の懸念がますます高まっています。
その結果、イベントの背後にある状況を理解することが重要になり、専門家以外のユーザーに対してイベントの行動を正当化する機能の開発が必要になります。
このような説明は、信頼性と安全性を高め、失敗、間違い、誤解を防ぐために不可欠です。
さらに、コミュニケーションの改善にも貢献し、エージェントとユーザーの間のギャップを埋めることで、対話の有効性を向上させます。
この研究では、ROS ベースのモバイル ロボットに実装された説明責任と説明責任のアーキテクチャを示します。
提案されたソリューションは 2 つの主要なコンポーネントで構成されます。
まず、説明責任を提供するブラック ボックスのような要素であり、ブロックチェーン テクノロジーによって実現される改ざん防止機能を備えています。
2 つ目は、前述のブラック ボックス内に含まれるデータに対して大規模言語モデル (LLM) の機能を利用することで、自然言語の説明を生成するコンポーネントです。
この調査では、自律エージェント ナビゲーション機能を含む 3 つの異なるシナリオでソリューションのパフォーマンスを評価しています。
この評価には、説明責任と説明責任の指標の徹底的な検査が含まれており、現実世界のシナリオで自律エージェントの使用に固有の課題に直面している場合でも、ロボットの動作から得られる説明責任のあるデータを使用して、一貫性があり、正確で理解可能な説明を得るというアプローチの有効性を実証しています。

要約(オリジナル)

The deployment of autonomous agents in environments involving human interaction has increasingly raised security concerns. Consequently, understanding the circumstances behind an event becomes critical, requiring the development of capabilities to justify their behaviors to non-expert users. Such explanations are essential in enhancing trustworthiness and safety, acting as a preventive measure against failures, errors, and misunderstandings. Additionally, they contribute to improving communication, bridging the gap between the agent and the user, thereby improving the effectiveness of their interactions. This work presents an accountability and explainability architecture implemented for ROS-based mobile robots. The proposed solution consists of two main components. Firstly, a black box-like element to provide accountability, featuring anti-tampering properties achieved through blockchain technology. Secondly, a component in charge of generating natural language explanations by harnessing the capabilities of Large Language Models (LLMs) over the data contained within the previously mentioned black box. The study evaluates the performance of our solution in three different scenarios, each involving autonomous agent navigation functionalities. This evaluation includes a thorough examination of accountability and explainability metrics, demonstrating the effectiveness of our approach in using accountable data from robot actions to obtain coherent, accurate and understandable explanations, even when facing challenges inherent in the use of autonomous agents in real-world scenarios.

arxiv情報

著者 Laura Fernández-Becerra,Miguel Ángel González-Santamarta,Ángel Manuel Guerrero-Higueras,Francisco Javier Rodríguez-Lera,Vicente Matellán Olivera
発行日 2024-03-14 16:57:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク