Landscape of AI safety concerns — A methodology to support safety assurance for AI-based autonomous systems

要約

人工知能 (AI) は主要なテクノロジーとして台頭し、さまざまなアプリケーションの進歩を推進しています。
最新の自律システムに統合するには、安全性を確保する必要があります。
ただし、AI コンポーネントを組み込んだシステムの安全性を確保するという課題は重大です。
具体的な仕様が欠如していること、また運用環境とシステム自体の複雑さにより、動作のさまざまな側面が不確実になり、システムの安全性に関する説得力のある証拠の導出が困難になります。
それにもかかわらず、学者たちはAI特有の欠陥、いわゆるAIの安全性への懸念を徹底的に分析し軽減することを提案しており、説得力のある保証ケースを裏付ける重要な証拠が得られている。
この論文では、この考えに基づいて、AI の安全性に関する懸念がないことを系統的に実証することで、AI ベースのシステムの安全性保証ケースの作成をサポートするように設計された、いわゆる AI 安全性懸念のランドスケープを提案します。
この方法論の応用例は、無人地方列車に関するケーススタディを通じて説明され、その実用性と有効性が実証されています。

要約(オリジナル)

Artificial Intelligence (AI) has emerged as a key technology, driving advancements across a range of applications. Its integration into modern autonomous systems requires assuring safety. However, the challenge of assuring safety in systems that incorporate AI components is substantial. The lack of concrete specifications, and also the complexity of both the operational environment and the system itself, leads to various aspects of uncertain behavior and complicates the derivation of convincing evidence for system safety. Nonetheless, scholars proposed to thoroughly analyze and mitigate AI-specific insufficiencies, so-called AI safety concerns, which yields essential evidence supporting a convincing assurance case. In this paper, we build upon this idea and propose the so-called Landscape of AI Safety Concerns, a novel methodology designed to support the creation of safety assurance cases for AI-based systems by systematically demonstrating the absence of AI safety concerns. The methodology’s application is illustrated through a case study involving a driverless regional train, demonstrating its practicality and effectiveness.

arxiv情報

著者 Ronald Schnitzer,Lennart Kilian,Simon Roessner,Konstantinos Theodorou,Sonja Zillner
発行日 2024-12-18 16:38:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク