Navigating the EU AI Act: A Methodological Approach to Compliance for Safety-critical Products

要約

2023年12月、欧州議会はEU AI法に暫定合意した。
AI システムに対するこの前例のない規制枠組みは、AI 製品の安全性、合法性、信頼性を確保するためのガイドラインを定めています。
このペーパーでは、製品品質モデルを活用して、高リスク AI システムに対する EU AI 法の要件を解釈する方法論を紹介します。
まず、現在の品質モデルではカバーされていない法律に関連する属性を組み込んだ、AI システム用の拡張製品品質モデルを提案します。
当社は、法律の要件を関連する品質特性にマッピングし、それらを測定可能な特性に改良することを目標としています。
次に、利害関係者レベルで技術要件を導き出すための契約ベースのアプローチを提案します。
これにより、確立された品質基準に準拠するだけでなく、高リスク (安全性が重要な場合を含む) AI システムに関する法律で概説されている規制要件にも準拠する AI システムの開発と評価が容易になります。
私たちは、EU AI 法の準拠を達成するために複数の利害関係者が相互作用する、例示的な自動車サプライ チェーンのユースケースでこの方法論の適用可能性を実証します。

要約(オリジナル)

In December 2023, the European Parliament provisionally agreed on the EU AI Act. This unprecedented regulatory framework for AI systems lays out guidelines to ensure the safety, legality, and trustworthiness of AI products. This paper presents a methodology for interpreting the EU AI Act requirements for high-risk AI systems by leveraging product quality models. We first propose an extended product quality model for AI systems, incorporating attributes relevant to the Act not covered by current quality models. We map the Act requirements to relevant quality attributes with the goal of refining them into measurable characteristics. We then propose a contract-based approach to derive technical requirements at the stakeholder level. This facilitates the development and assessment of AI systems that not only adhere to established quality standards, but also comply with the regulatory requirements outlined in the Act for high-risk (including safety-critical) AI systems. We demonstrate the applicability of this methodology on an exemplary automotive supply chain use case, where several stakeholders interact to achieve EU AI Act compliance.

arxiv情報

著者 J. Kelly,S. Zafar,L. Heidemann,J. Zacchi,D. Espinoza,N. Mata
発行日 2024-03-26 08:59:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク