How should AI decisions be explained? Requirements for Explanations from the Perspective of European Law

要約

この論文では、法律と説明可能な人工知能 (XAI) の関係を調査します。
欧州議会、理事会、欧州委員会の三者会合が最近終了した AI 法については多くの議論が行われていますが、他の法律分野は十分に検討されていないようです。
この文書では、欧州 (および一部はドイツ) の法律に焦点を当てていますが、受託者妥当性チェック、一般データ保護規則 (GDPR)、製品の安全性と責任などの国際的な概念や規制も含まれています。
XAI 分類に基づいて、XAI メソッドの要件は各法的根拠から導出されます。その結果、各法的根拠には異なる XAI プロパティが必要であり、現在の最先端技術ではこれらを完全に満足に満たすことはできません。特に、
XAI メソッドの正確性 (忠実度と呼ばれることもあります) と信頼度の推定。
AI、倫理、社会に関する AAAI/ACM 会議議事録 https://doi.org/10.1609/aies.v7i1.31648 に掲載されています。

要約(オリジナル)

This paper investigates the relationship between law and eXplainable Artificial Intelligence (XAI). While there is much discussion about the AI Act, for which the trilogue of the European Parliament, Council and Commission recently concluded, other areas of law seem underexplored. This paper focuses on European (and in part German) law, although with international concepts and regulations such as fiduciary plausibility checks, the General Data Protection Regulation (GDPR), and product safety and liability. Based on XAI-taxonomies, requirements for XAI-methods are derived from each of the legal bases, resulting in the conclusion that each legal basis requires different XAI properties and that the current state of the art does not fulfill these to full satisfaction, especially regarding the correctness (sometimes called fidelity) and confidence estimates of XAI-methods. Published in the Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society https://doi.org/10.1609/aies.v7i1.31648 .

arxiv情報

著者 Benjamin Fresz,Elena Dubovitskaya,Danilo Brajovic,Marco Huber,Christian Horz
発行日 2024-11-26 14:13:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク