Heterogeneity of AI-Induced Societal Harms and the Failure of Omnibus AI Laws

要約

AI によって引き起こされる社会的被害は、AI が従来の方法論を置き換えたり補完したりする領域における既存の問題を反映しています。
しかし、信頼できる AI 言説は、AI の均質性を仮定し、AI が生み出す害に関する共通の原因を導き出すことを目指し、均一な人間の介入を要求します。
このような AI の一元論は、EU AI によって実証されているように、公平性、透明性、説明責任、人間による監視、正確性、堅牢性、およびセキュリティに関する規則の完全で統一されたパッケージに準拠することをリスクの高い AI システムに要求するオムニバス AI 法の立法に拍車をかけました。
規制と米国のアルゴリズム説明責任法の草案。
ただし、安全上のリスク、偏見、侵害、およびプライバシーの問題を伴う AI を分離できる場合に、ハイリスクまたは重要な AI にすべての安全性、公平性、説明責任、およびプライバシーの規制を遵守するよう要求することは不合理です。
立法者は、AI システムが誘発する社会的危害の種類に応じて AI システムを分類することにより、既存の規制を徐々に適応させる必要があります。
したがって、この論文では、進行中の経験的再評価を条件として、次の分類を提案します。
まず、インテリジェント エージェントに関しては、自律的な行動に起因する事故リスクの増加に対処するために、安全規制を適応させる必要があります。
第二に、差別的モデルに関して、法律は、配分的損害の軽減と、不変の特徴の限界効果の開示に焦点を当てなければなりません。
第 3 に、生成モデルの場合、法はデータ マイニングとコンテンツ生成に対する開発者の責任を最適化し、侵害コンテンツから生じる潜在的な社会的損害と過度のフィルタリングの悪影響とのバランスを取り、人間以外のアイデンティティを開示すべきケースを特定する必要があります。
最後に、コグニティブ モデルについては、プライバシー、監視、およびセキュリティの問題に効果的に対処し、官民パートナーシップに基づいて構築されたガバナンスを促進するために、データ保護法を適応させる必要があります。

要約(オリジナル)

AI-induced societal harms mirror existing problems in domains where AI replaces or complements traditional methodologies. However, trustworthy AI discourses postulate the homogeneity of AI, aim to derive common causes regarding the harms they generate, and demand uniform human interventions. Such AI monism has spurred legislation for omnibus AI laws requiring any high-risk AI systems to comply with a full, uniform package of rules on fairness, transparency, accountability, human oversight, accuracy, robustness, and security, as demonstrated by the EU AI Regulation and the U.S. draft Algorithmic Accountability Act. However, it is irrational to require high-risk or critical AIs to comply with all the safety, fairness, accountability, and privacy regulations when it is possible to separate AIs entailing safety risks, biases, infringements, and privacy problems. Legislators should gradually adapt existing regulations by categorizing AI systems according to the types of societal harms they induce. Accordingly, this paper proposes the following categorizations, subject to ongoing empirical reassessments. First, regarding intelligent agents, safety regulations must be adapted to address incremental accident risks arising from autonomous behavior. Second, regarding discriminative models, law must focus on the mitigation of allocative harms and the disclosure of marginal effects of immutable features. Third, for generative models, law should optimize developer liability for data mining and content generation, balancing potential social harms arising from infringing content and the negative impact of excessive filtering and identify cases where its non-human identity should be disclosed. Lastly, for cognitive models, data protection law should be adapted to effectively address privacy, surveillance, and security problems and facilitate governance built on public-private partnerships.

arxiv情報

著者 Sangchul Park
発行日 2023-03-20 15:23:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク