Trust Through Transparency: Explainable Social Navigation for Autonomous Mobile Robots via Vision-Language Models

要約

サービスおよび支援ロボットは、動的な社会環境でますます展開されています。
ただし、透明で説明可能な相互作用を確保することは、依然として重要な課題です。
このペーパーでは、ビジョン言語モデルとヒートマップを統合してナビゲーション中の透明度を向上させるマルチモーダルの説明可能性モジュールを紹介します。
提案されたシステムにより、ロボットは自然言語の概要を通じて観察結果を認識、分析、明確にすることができます。
ユーザー調査(n = 30)は、リアルタイムの説明に対する多数派の好みを示し、信頼と理解の改善を示しています。
私たちの実験は、混乱マトリックス分析を通じて検証され、人間の期待との一致レベルを評価しました。
実験およびシミュレーションの結果は、自律的なナビゲーションにおける説明可能性の有効性を強調し、信頼と解釈可能性を高めます。

要約(オリジナル)

Service and assistive robots are increasingly being deployed in dynamic social environments; however, ensuring transparent and explainable interactions remains a significant challenge. This paper presents a multimodal explainability module that integrates vision language models and heat maps to improve transparency during navigation. The proposed system enables robots to perceive, analyze, and articulate their observations through natural language summaries. User studies (n=30) showed a preference of majority for real-time explanations, indicating improved trust and understanding. Our experiments were validated through confusion matrix analysis to assess the level of agreement with human expectations. Our experimental and simulation results emphasize the effectiveness of explainability in autonomous navigation, enhancing trust and interpretability.

arxiv情報

著者 Oluwadamilola Sotomi,Devika Kodi,Aliasghar Arab
発行日 2025-04-07 20:16:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク