要約
この論文では、自動運転システムにおける人工知能 (AI) アルゴリズム、特に AI ベースのソフトウェア要素の役割と課題について検討します。
これらの AI システムは、複雑で高次元の環境でリアルタイムの重要な機能を実行するための基礎となります。
彼らは、マルチモーダルな知覚、認知、および動作計画、車線維持、緊急ブレーキなどの意思決定タスクなどの重要なタスクを処理します。
主な懸念は、AI モデルが初期のトレーニング データを超えて一般化できるかどうか (およびその必要性) に関するものです。
この一般化の問題は、モデルがトレーニング データや検証データに表されていない入力に頻繁に遭遇するリアルタイム シナリオで明らかになります。
このような場合、AI システムは、分布やドメインの変化に直面しているにもかかわらず、引き続き効果的に機能する必要があります。
この論文では、自動運転などの安全性が重要なアプリケーションにおける自信過剰な AI モデルに関連するリスクを調査します。
これらのリスクを軽減するために、過信せずにパフォーマンスを維持できるように AI モデルをトレーニングする方法が提案されています。
これには、確実性レポート アーキテクチャの実装と、多様なトレーニング データの確保が含まれます。
AI モデルに安全メカニズムを提供するためにさまざまな分散ベースの手法が存在しますが、特に安全性が重要な自動車アプリケーションの文脈では、これらの手法の体系的な評価が不足していることが顕著です。
文献にある多くの方法は、セーフティ クリティカルなエッジ アプリケーションで必要とされる迅速な応答時間にうまく適応できません。
このペーパーでは、これらの方法をレビューし、安全性が重要なアプリケーションへの適合性について説明し、その長所と限界を強調します。
この論文では、迅速かつ正確な意思決定プロセスの観点から、自動運転車の AI アルゴリズムの安全性と信頼性を強化するための潜在的な改善についても提案しています。
要約(オリジナル)
This paper explores the role and challenges of Artificial Intelligence (AI) algorithms, specifically AI-based software elements, in autonomous driving systems. These AI systems are fundamental in executing real-time critical functions in complex and high-dimensional environments. They handle vital tasks like multi-modal perception, cognition, and decision-making tasks such as motion planning, lane keeping, and emergency braking. A primary concern relates to the ability (and necessity) of AI models to generalize beyond their initial training data. This generalization issue becomes evident in real-time scenarios, where models frequently encounter inputs not represented in their training or validation data. In such cases, AI systems must still function effectively despite facing distributional or domain shifts. This paper investigates the risk associated with overconfident AI models in safety-critical applications like autonomous driving. To mitigate these risks, methods for training AI models that help maintain performance without overconfidence are proposed. This involves implementing certainty reporting architectures and ensuring diverse training data. While various distribution-based methods exist to provide safety mechanisms for AI models, there is a noted lack of systematic assessment of these methods, especially in the context of safety-critical automotive applications. Many methods in the literature do not adapt well to the quick response times required in safety-critical edge applications. This paper reviews these methods, discusses their suitability for safety-critical applications, and highlights their strengths and limitations. The paper also proposes potential improvements to enhance the safety and reliability of AI algorithms in autonomous vehicles in the context of rapid and accurate decision-making processes.
arxiv情報
著者 | Mandar Pitale,Alireza Abbaspour,Devesh Upadhyay |
発行日 | 2024-02-29 18:18:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google