Is the U.S. Legal System Ready for AI’s Challenges to Human Values?

要約

我々の学際的研究は、ジェネレーティブAIが人間の価値観にもたらす課題に、米国の法律がいかに効果的に立ち向かっているかを調査するものである。専門家によるワークショップで作成された多様な仮想シナリオの分析を通じて、プライバシー、自律性、尊厳、多様性、公平性、身体的/精神的幸福といった基本的価値の保護に関して、既存の法的枠組みには顕著なギャップや不確実性があることを明らかにした。憲法や市民権は、AIが生み出す差別的なアウトプットに対して十分な保護を提供しない可能性がある。さらに、第230条によって提供される賠償責任の盾を除外したとしても、名誉毀損や製造物責任の請求の因果関係を証明することは、AIシステムの複雑で不透明な性質のため、困難な取り組みである。ジェネレーティブAIがもたらすユニークで予測不可能な脅威に対処するため、私たちは、新たな脅威を認識し、業界の利害関係者に予防的で監査可能なガイドラインを提供するよう進化する法的枠組みを提唱する。これらの問題に対処するためには、有害性、価値観、緩和戦略を特定するための学際的な深い協力が必要である。

要約(オリジナル)

Our interdisciplinary study investigates how effectively U.S. laws confront the challenges posed by Generative AI to human values. Through an analysis of diverse hypothetical scenarios crafted during an expert workshop, we have identified notable gaps and uncertainties within the existing legal framework regarding the protection of fundamental values, such as privacy, autonomy, dignity, diversity, equity, and physical/mental well-being. Constitutional and civil rights, it appears, may not provide sufficient protection against AI-generated discriminatory outputs. Furthermore, even if we exclude the liability shield provided by Section 230, proving causation for defamation and product liability claims is a challenging endeavor due to the intricate and opaque nature of AI systems. To address the unique and unforeseeable threats posed by Generative AI, we advocate for legal frameworks that evolve to recognize new threat and provide proactive, auditable guidelines to industry stakeholders. Addressing these issues requires deep interdisciplinary collaborations to identify harms, values, and mitigation strategies.

arxiv情報

著者 Inyoung Cheong,Aylin Caliskan,Tadayoshi Kohno
発行日 2023-08-31 22:49:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.CY パーマリンク