要約
公正な決定とは何でしょうか?
この質問は人間にとって難しいだけでなく、人工知能 (AI) モデルが使用される場合にはさらに困難になります。
差別的なアルゴリズム行為を考慮して、EU は最近、AI モデルに特定のルールを義務付ける AI 法を可決しました。これには、従来の法的非差別規制と機械学習ベースのアルゴリズムの公平性の概念の両方が組み込まれています。
この文書は、AI 法のこれら 2 つの異なる概念の橋渡しをすることを目的としています。まず、法学およびコンピューター サイエンス志向の学者を対象とした両方の概念の概要を紹介し、次に AI 法の法的非差別との関係の詳細な分析を行います。
規制とアルゴリズムの公平性。
私たちの分析により、次の 3 つの重要な発見が明らかになりました。 (1.) ほとんどの非差別規制は、高リスクの AI システムのみを対象としています。
(2.) にあるように、高リスク システムの規制にはデータ入力要件と出力監視の両方が含まれていますが、これらの規制は矛盾していることが多く、計算上の実現可能性について疑問が生じます。
(3.) 高リスクシステムとして同時に分類されない大規模言語モデルなどの汎用 AI モデルの規制は、現在、他の規制に比べて具体性に欠けています。
これらの調査結果に基づいて、AI システムのより具体的な監査およびテスト方法を開発することをお勧めします。
この論文は、法学者と AI システムにおける差別を研究するコンピュータ サイエンス指向の機械学習研究者との間の将来の学際的なコラボレーションの基礎となることを目的としています。
要約(オリジナル)
What constitutes a fair decision? This question is not only difficult for humans but becomes more challenging when Artificial Intelligence (AI) models are used. In light of discriminatory algorithmic behaviors, the EU has recently passed the AI Act, which mandates specific rules for AI models, incorporating both traditional legal non-discrimination regulations and machine learning based algorithmic fairness concepts. This paper aims to bridge these two different concepts in the AI Act through: First a high-level introduction of both concepts targeting legal and computer science-oriented scholars, and second an in-depth analysis of the AI Act’s relationship between legal non-discrimination regulations and algorithmic fairness. Our analysis reveals three key findings: (1.), most non-discrimination regulations target only high-risk AI systems. (2.), the regulation of high-risk systems encompasses both data input requirements and output monitoring, though these regulations are often inconsistent and raise questions of computational feasibility. (3.) Regulations for General Purpose AI Models, such as Large Language Models that are not simultaneously classified as high-risk systems, currently lack specificity compared to other regulations. Based on these findings, we recommend developing more specific auditing and testing methodologies for AI systems. This paper aims to serve as a foundation for future interdisciplinary collaboration between legal scholars and computer science-oriented machine learning researchers studying discrimination in AI systems.
arxiv情報
著者 | Kristof Meding |
発行日 | 2025-01-22 15:38:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google