要約
ディープ ニューラル ネットワーク (DNN) は自動運転車の認識機能の中心となり、環境を理解し解釈する能力を大幅に強化しています。
ただし、これらのシステムには、脆弱性、不透明性、配布範囲外のシナリオでの予測不可能な動作などの固有の制限があります。
欧州連合 (EU) の人工知能 (AI) 法は、先駆的な法的枠組みとして、高度な技術に分類される自動運転 (AD) で使用されるシステムを含む AI システムに対する厳格な規範と標準を確立することで、これらの課題に対処することを目的としています。
リスクAI。
この研究では、新たに利用可能になった生成 AI モデルが、特に安全性に関して、AD の認識における今後の規制要件への対応を潜在的にどのようにサポートできるかを調査します。
この短いレビュー ペーパーでは、DNN ベースの認識システムに関する EU AI 法から生じる要件を要約し、AD における既存の生成 AI アプリケーションを体系的に分類しています。
生成 AI モデルは、透明性や堅牢性などの EU AI 法の要件の一部に対処する上で有望であることが示されていますが、このレビューでは、その潜在的な利点を検証し、開発者がこれらの手法を活用して同法への準拠を強化する方法について議論します。
この論文では、これらのテクノロジーの信頼性と安全性を確保するためにさらなる研究が必要な領域についても強調しています。
要約(オリジナル)
Deep Neural Networks (DNNs) have become central for the perception functions of autonomous vehicles, substantially enhancing their ability to understand and interpret the environment. However, these systems exhibit inherent limitations such as brittleness, opacity, and unpredictable behavior in out-of-distribution scenarios. The European Union (EU) Artificial Intelligence (AI) Act, as a pioneering legislative framework, aims to address these challenges by establishing stringent norms and standards for AI systems, including those used in autonomous driving (AD), which are categorized as high-risk AI. In this work, we explore how the newly available generative AI models can potentially support addressing upcoming regulatory requirements in AD perception, particularly with respect to safety. This short review paper summarizes the requirements arising from the EU AI Act regarding DNN-based perception systems and systematically categorizes existing generative AI applications in AD. While generative AI models show promise in addressing some of the EU AI Acts requirements, such as transparency and robustness, this review examines their potential benefits and discusses how developers could leverage these methods to enhance compliance with the Act. The paper also highlights areas where further research is needed to ensure reliable and safe integration of these technologies.
arxiv情報
著者 | Mert Keser,Youssef Shoeb,Alois Knoll |
発行日 | 2024-08-30 12:01:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google