Safety Implications of Explainable Artificial Intelligence in End-to-End Autonomous Driving

要約

エンドツーエンドの学習パイプラインは、主に深層学習の進歩、大規模なトレーニング データセットの利用可能性、統合センサー デバイスの改善により、進行中の高度自動運転車の開発にパラダイム シフトを徐々に生み出しています。
しかし、現代の学習方法ではリアルタイムの意思決定に解釈可能性が欠如しているため、ユーザーの信頼が損なわれ、そのような手段の広範な導入と商品化が弱まってしまいます。
さらに、これらの車が交通事故に巻き込まれたり、交通事故を引き起こしたりすると、問題はさらに悪化します。
このような欠点は、社会的および法的な観点から安全性に関する重大な懸念を引き起こします。
したがって、車両の自動化に対する信頼を築くには、エンドツーエンドの自動運転における説明可能性が不可欠です。
しかし、エンドツーエンド運転の安全性と説明可能性の側面は、一般に、今日の最先端技術の研究者によってばらばらに研究されてきました。
この調査は、これらのトピック間のギャップを埋めることを目的としており、次の研究課題に答えることを目指しています: 説明によっていつ、どのようにエンドツーエンドの自動運転の安全性が向上するのか?
この点に関して、私たちはまず、エンドツーエンドの運転における確立された安全性と最先端の説明可能性技術を再検討します。
さらに、3 つの重要なケーススタディを紹介し、自動運転の安全性を高める上での説明の極めて重要な役割を示します。
最後に、実証研究からの洞察を説明し、エンドツーエンドの自動運転における安全性保証に関して、説明可能な実践的な AI 手法の潜在的な価値、限界、および注意点を明らかにします。

要約(オリジナル)

The end-to-end learning pipeline is gradually creating a paradigm shift in the ongoing development of highly autonomous vehicles, largely due to advances in deep learning, the availability of large-scale training datasets, and improvements in integrated sensor devices. However, a lack of interpretability in real-time decisions with contemporary learning methods impedes user trust and attenuates the widespread deployment and commercialization of such vehicles. Moreover, the issue is exacerbated when these cars are involved in or cause traffic accidents. Such drawback raises serious safety concerns from societal and legal perspectives. Consequently, explainability in end-to-end autonomous driving is essential to build trust in vehicular automation. However, the safety and explainability aspects of end-to-end driving have generally been investigated disjointly by researchers in today’s state of the art. This survey aims to bridge the gaps between these topics and seeks to answer the following research question: When and how can explanations improve safety of end-to-end autonomous driving? In this regard, we first revisit established safety and state-of-the-art explainability techniques in end-to-end driving. Furthermore, we present three critical case studies and show the pivotal role of explanations in enhancing self-driving safety. Finally, we describe insights from empirical studies and reveal potential value, limitations, and caveats of practical explainable AI methods with respect to their safety assurance in end-to-end autonomous driving.

arxiv情報

著者 Shahin Atakishiyev,Mohammad Salameh,Randy Goebel
発行日 2024-05-07 22:55:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク