要約
欧州連合は、AI システム、特にヘルスケアなどのリスクが高く、安全性が重要なアプリケーションで使用される AI システムを規制することを意図した人工知能法を提案しています。
法の条文の中には、透明性と説明可能性に関する詳細な要件があります。
説明可能な AI (XAI) の分野は、これらの要件の多くに対応できるテクノロジを提供します。
ただし、XAI が提供するソリューションと AI 法の要件との間には大きな違いがあります。たとえば、透明性の明確な定義がありません。
これらの違いに対処するには、弁護士と XAI 研究者の間の協力が不可欠であると主張します。
共通の基盤を確立するために、XAI とその法的関連性の概要を説明した後、AI 法および関連する一般データ保護規則 (GDPR) の透明性と説明可能性の要件を読みます。
次に、違いが問題を引き起こす可能性のある 4 つの主なトピックについて説明します。
具体的には、XAI の法的地位、透明性の定義の欠如、適合性評価に関する問題、およびデータセット関連の透明性のための XAI の使用。
明確性が高まることで、法律と XAI の間の学際的な研究が促進され、責任あるイノベーションを促進する持続可能な規制の作成がサポートされることを願っています。
要約(オリジナル)
The European Union has proposed the Artificial Intelligence Act intending to regulate AI systems, especially those used in high-risk, safety-critical applications such as healthcare. Among the Act’s articles are detailed requirements for transparency and explainability. The field of explainable AI (XAI) offers technologies that could address many of these requirements. However, there are significant differences between the solutions offered by XAI and the requirements of the AI Act, for instance, the lack of an explicit definition of transparency. We argue that collaboration is essential between lawyers and XAI researchers to address these differences. To establish common ground, we give an overview of XAI and its legal relevance followed by a reading of the transparency and explainability requirements of the AI Act and the related General Data Protection Regulation (GDPR). We then discuss four main topics where the differences could induce issues. Specifically, the legal status of XAI, the lack of a definition of transparency, issues around conformity assessments, and the use of XAI for dataset-related transparency. We hope that increased clarity will promote interdisciplinary research between the law and XAI and support the creation of a sustainable regulation that fosters responsible innovation.
arxiv情報
著者 | Balint Gyevnar,Nick Ferguson |
発行日 | 2023-02-21 16:06:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google