Taxonomy to Regulation: A (Geo)Political Taxonomy for AI Risks and Regulatory Measures in the EU AI Act

要約

技術革新は、社会に利益をもたらすこともあれば、社会に害を及ぼすことも同様に顕著な可能性を示しています。
AI は、悪意のある行為者を含む社会の大部分がアクセスできる民主化された洗練されたテクノロジーを構成します。
この研究は、AI に関連する (地理) 政治的リスクに焦点を当てた分類法を提案しています。
それは、(1) 地政学的な圧力、(2) 悪意のある利用、(3) 環境的、社会的、倫理的リスク、(4) プライバシーと信頼違反の 4 つのカテゴリに分類された合計 12 のリスクを特定します。
この文書では、規制の側面を組み込んで、EU AI 法の政策評価を実施します。
2023 年 3 月に採択されたこの画期的な規制は、AI リスク軽減に関してトップダウンでプラスの影響を与える可能性がありますが、より包括的にリスクを軽減するには規制の調整が必要です。
オープンソース モデルに対する規制上の例外、システミック リスクとして GPAI モデルを分類するための過度に高いパラメーター、および規制の義務から軍事目的のみに設計されたシステムの除外などは、将来の行動の余地を残しています。

要約(オリジナル)

Technological innovations have shown remarkable capabilities to benefit and harm society alike. AI constitutes a democratized sophisticated technology accessible to large parts of society, including malicious actors. This work proposes a taxonomy focusing on on (geo)political risks associated with AI. It identifies 12 risks in total divided into four categories: (1) Geopolitical Pressures, (2) Malicious Usage, (3) Environmental, Social, and Ethical Risks, and (4) Privacy and Trust Violations. Incorporating a regulatory side, this paper conducts a policy assessment of the EU AI Act. Adopted in March 2023, the landmark regulation has the potential to have a positive top-down impact concerning AI risk reduction but needs regulatory adjustments to mitigate risks more comprehensively. Regulatory exceptions for open-source models, excessively high parameters for the classification of GPAI models as a systemic risk, and the exclusion of systems designed exclusively for military purposes from the regulation’s obligations leave room for future action.

arxiv情報

著者 Sinan Arda
発行日 2024-04-17 15:32:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T01, cs.AI, cs.CY, cs.LG, I.2.0 パーマリンク