要約
私たちの学際的な研究では、生成 AI が人間の価値観にもたらす課題に米国の法律がどのように効果的に対処しているかを調査しています。
専門家のワークショップで作成されたさまざまな仮説シナリオの分析を通じて、自律性、プライバシー、尊厳、多様性、平等、身体的/精神的健康などの基本的価値の保護に関する既存の法的枠組み内の顕著なギャップと不確実性を特定しました。
いる。
憲法上の権利と公民権は、AI によって生成された差別的な出力に対して十分な保護を提供しない可能性があるようです。
さらに、第 230 条によって提供される責任の盾を除外したとしても、AI システムの複雑かつ不透明な性質により、名誉毀損と製造物責任の請求の因果関係を証明することは困難な取り組みです。
Generative AI によってもたらされる独特の予見不可能な脅威に対処するために、私たちは新たな脅威を認識し、業界関係者にプロアクティブで監査可能なガイドラインを提供するために進化する法的枠組みを提唱します。
これらの問題に対処するには、害、価値、緩和戦略を特定するための深い学際的な協力が必要です。
要約(オリジナル)
Our interdisciplinary study investigates how effectively U.S. laws confront the challenges posed by Generative AI to human values. Through an analysis of diverse hypothetical scenarios crafted during an expert workshop, we have identified notable gaps and uncertainties within the existing legal framework regarding the protection of fundamental values, such as autonomy, privacy, dignity, diversity, equality, and physical/mental well-being. Constitutional and civil rights, it appears, may not provide sufficient protection against AI-generated discriminatory outputs. Furthermore, even if we exclude the liability shield provided by Section 230, proving causation for defamation and product liability claims is a challenging endeavor due to the intricate and opaque nature of AI systems. To address the unique and unforeseeable threats posed by Generative AI, we advocate for legal frameworks that evolve to recognize new threat and provide proactive, auditable guidelines to industry stakeholders. Addressing these issues requires deep interdisciplinary collaborations to identify harms, values, and mitigation strategies.
arxiv情報
著者 | Inyoung Cheong,Aylin Caliskan,Tadayoshi Kohno |
発行日 | 2023-08-30 09:19:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google