It’s complicated. The relationship of algorithmic fairness and non-discrimination regulations in the EU AI Act

要約

公正な決定を構成するものは何ですか?
この質問は、人間にとって難しいだけでなく、人工知能(AI)モデルを使用するとより困難になります。
差別的なアルゴリズム行動に照らして、EUは最近、AIモデルの特定の規則を義務付けているAI法を最近可決し、従来の法的非差別規制と機械学習に基づくアルゴリズムの公平性概念の両方を組み込みました。
このペーパーは、AI法におけるこれら2つの異なる概念を埋めることを目的としています。1つ目は、法的およびコンピューター科学志向の学者を対象とした両方の概念の高レベルの導入と、2つ目は、法的非差別規制とアルゴリズムの公平性とのAI法の関係の詳細な分析です。
分析では、3つの重要な調査結果が明らかになりました。(1。)、ほとんどの非差別規制は、高リスクのAIシステムのみを対象としています。
(2.)、高リスクシステムの規制には、データ入力要件と出力モニタリングの両方を網羅していますが、これらの規制はしばしば一貫性がなく、計算の実現可能性の疑問を提起します。
(3.)高リスクシステムとして同時に分類されていない大規模な言語モデルなど、汎用AIモデルの規制は、現在、他の規制と比較して特異性がありません。
これらの調査結果に基づいて、AIシステムのより具体的な監査およびテスト方法を開発することをお勧めします。
この論文は、AIシステムの差別を研究している法律学者とコンピューター科学指向の機械学習研究者との間の将来の学際的な協力の基盤として機能することを目的としています。

要約(オリジナル)

What constitutes a fair decision? This question is not only difficult for humans but becomes more challenging when Artificial Intelligence (AI) models are used. In light of discriminatory algorithmic behaviors, the EU has recently passed the AI Act, which mandates specific rules for AI models, incorporating both traditional legal non-discrimination regulations and machine learning based algorithmic fairness concepts. This paper aims to bridge these two different concepts in the AI Act through: First a high-level introduction of both concepts targeting legal and computer science-oriented scholars, and second an in-depth analysis of the AI Act’s relationship between legal non-discrimination regulations and algorithmic fairness. Our analysis reveals three key findings: (1.), most non-discrimination regulations target only high-risk AI systems. (2.), the regulation of high-risk systems encompasses both data input requirements and output monitoring, though these regulations are often inconsistent and raise questions of computational feasibility. (3.) Regulations for General Purpose AI Models, such as Large Language Models that are not simultaneously classified as high-risk systems, currently lack specificity compared to other regulations. Based on these findings, we recommend developing more specific auditing and testing methodologies for AI systems. This paper aims to serve as a foundation for future interdisciplinary collaboration between legal scholars and computer science-oriented machine learning researchers studying discrimination in AI systems.

arxiv情報

著者 Kristof Meding
発行日 2025-03-14 15:05:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク