Explainable AI for Safe and Trustworthy Autonomous Driving: A Systematic Review

要約

人工知能(AI)は、従来の手法と比較して優れた性能を持つため、自律走行(AD)における知覚および計画タスクへの応用が有望視されている。しかし、不可解なAIシステムは、ADの安全保証という既存の課題を悪化させる。この課題を軽減する1つの方法は、説明可能なAI(XAI)技術を利用することである。この目的のために、我々は、安全で信頼できるADのための説明可能な手法に関する初の包括的な体系的文献レビューを行う。まず、ADの文脈におけるAIの要件を、データ、モデル、エージェンシーという3つの重要な側面に焦点を当てて分析する。我々は、XAIがこれらの要件を満たすための基本であることを発見した。これに基づいて、AIにおける説明の源を説明し、XAIの分類法を説明する。そして、ADにおける安全で信頼できるAIのためのXAIの5つの重要な貢献として、解釈可能なデザイン、解釈可能な代理モデル、解釈可能なモニタリング、補助的説明、解釈可能な検証を挙げる。最後に、SafeXと呼ばれるモジュール式フレームワークを提案し、これらの貢献を統合することで、AIモデルの安全性を確保すると同時に、ユーザーへの説明配信を可能にする。

要約(オリジナル)

Artificial Intelligence (AI) shows promising applications for the perception and planning tasks in autonomous driving (AD) due to its superior performance compared to conventional methods. However, inscrutable AI systems exacerbate the existing challenge of safety assurance of AD. One way to mitigate this challenge is to utilize explainable AI (XAI) techniques. To this end, we present the first comprehensive systematic literature review of explainable methods for safe and trustworthy AD. We begin by analyzing the requirements for AI in the context of AD, focusing on three key aspects: data, model, and agency. We find that XAI is fundamental to meeting these requirements. Based on this, we explain the sources of explanations in AI and describe a taxonomy of XAI. We then identify five key contributions of XAI for safe and trustworthy AI in AD, which are interpretable design, interpretable surrogate models, interpretable monitoring, auxiliary explanations, and interpretable validation. Finally, we propose a modular framework called SafeX to integrate these contributions, enabling explanation delivery to users while simultaneously ensuring the safety of AI models.

arxiv情報

著者 Anton Kuznietsov,Balint Gyevnar,Cheng Wang,Steven Peters,Stefano V. Albrecht
発行日 2024-07-03 08:31:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.HC, cs.LG, cs.RO パーマリンク