DRIVE: Dependable Robust Interpretable Visionary Ensemble Framework in Autonomous Driving

要約

最近の自動運転の進歩により、感覚入力を運転動作に直接マッピングするエンドツーエンドの学習パラダイムへのパラダイムシフトが見られ、それによって自動運転車の堅牢性と適応性が強化されています。
ただし、これらのモデルは解釈可能性を犠牲にすることが多く、信頼性、安全性、規制順守に重大な課題をもたらします。
これらの問題に対処するために、エンドツーエンドの教師なし自動運転モデル​​における説明の信頼性と安定性を向上させるために設計された包括的なフレームワークである、DRIVE — 自動運転におけるディペンダブル・ロバスト・インタープリタブル・ビジョナリー・アンサンブル・フレームワークを導入します。
私たちの研究は、その説明と意思決定プロセスの信頼性を損なう、コンセプトグリッドロック(DCG)モデルを介して観察される本質的な不安定性の問題を特にターゲットにしています。
DRIVE の 4 つの主要な属性、つまり一貫した解釈可能性、安定した解釈可能性、一貫した出力、安定した出力を定義します。
これらの属性は集合的に、さまざまなシナリオや摂動にわたって説明の信頼性と堅牢性を維持することを保証します。
広範な実証的評価を通じて、説明の安定性と信頼性を強化するフレームワークの有効性を実証し、それによって現在のモデルの限界に対処します。
私たちの貢献には、DCG モデル内のディペンダビリティの問題の詳細な分析、基本特性を備えた DRIVE の厳密な定義、DRIVE を実装するためのフレームワーク、コンセプトベースの説明可能な自動運転モデル​​の信頼性を評価するための新しい指標が含まれます。
これらの進歩は、より信頼性の高い自動運転システムの開発の基礎を築き、現実世界のアプリケーションでのより広範な受け入れと展開への道を開きます。

要約(オリジナル)

Recent advancements in autonomous driving have seen a paradigm shift towards end-to-end learning paradigms, which map sensory inputs directly to driving actions, thereby enhancing the robustness and adaptability of autonomous vehicles. However, these models often sacrifice interpretability, posing significant challenges to trust, safety, and regulatory compliance. To address these issues, we introduce DRIVE — Dependable Robust Interpretable Visionary Ensemble Framework in Autonomous Driving, a comprehensive framework designed to improve the dependability and stability of explanations in end-to-end unsupervised autonomous driving models. Our work specifically targets the inherent instability problems observed in the Driving through the Concept Gridlock (DCG) model, which undermine the trustworthiness of its explanations and decision-making processes. We define four key attributes of DRIVE: consistent interpretability, stable interpretability, consistent output, and stable output. These attributes collectively ensure that explanations remain reliable and robust across different scenarios and perturbations. Through extensive empirical evaluations, we demonstrate the effectiveness of our framework in enhancing the stability and dependability of explanations, thereby addressing the limitations of current models. Our contributions include an in-depth analysis of the dependability issues within the DCG model, a rigorous definition of DRIVE with its fundamental properties, a framework to implement DRIVE, and novel metrics for evaluating the dependability of concept-based explainable autonomous driving models. These advancements lay the groundwork for the development of more reliable and trusted autonomous driving systems, paving the way for their broader acceptance and deployment in real-world applications.

arxiv情報

著者 Songning Lai,Tianlang Xue,Hongru Xiao,Lijie Hu,Jiemin Wu,Ninghui Feng,Runwei Guan,Haicheng Liao,Zhenning Li,Yutao Yue
発行日 2024-09-16 14:40:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク