要約
この論文では、生存者中心のアプローチを採用して、「深い偽のポルノ」として知られている大人のAIに生成された非合意の親密な画像(AIG-NCII)を防ぐための社会技術的なAIガバナンスの役割を見つけて分析します。
オープンソースのフェイススワッピングモデルと、非技術的なユーザーが数分以内にAIG-NCIIを作成できる200個近くの「ヌーディング」ソフトウェアプログラムで構成される「悪意のある技術エコシステム」または「MTE」を特定します。
次に、現在の合成コンテンツガバナンス方法を反映して、国立標準技術研究所(NIST)AI 100-4レポートを使用して、現在の実践景観が成人AIG-NCIIのMTEを効果的に規制し、これらのギャップを説明する欠陥のある仮定をどのように制御できないかを示します。
要約(オリジナル)
In this paper, we adopt a survivor-centered approach to locate and dissect the role of sociotechnical AI governance in preventing AI-Generated Non-Consensual Intimate Images (AIG-NCII) of adults, colloquially known as ‘deep fake pornography.’ We identify a ‘malicious technical ecosystem’ or ‘MTE,’ comprising of open-source face-swapping models and nearly 200 ‘nudifying’ software programs that allow non-technical users to create AIG-NCII within minutes. Then, using the National Institute of Standards and Technology (NIST) AI 100-4 report as a reflection of current synthetic content governance methods, we show how the current landscape of practices fails to effectively regulate the MTE for adult AIG-NCII, as well as flawed assumptions explaining these gaps.
arxiv情報
著者 | Michelle L. Ding,Harini Suresh |
発行日 | 2025-04-24 15:31:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google