Not My Voice! A Taxonomy of Ethical and Safety Harms of Speech Generators

要約

人間の音声を生成する AI の急速かつ大規模な導入は、対処する必要があるさまざまな重大な倫理的および安全性のリスクを社会にもたらします。
たとえば、米国ではスワッティング攻撃に関連した音声生成事件が増加しています。この攻撃では、匿名の加害者が合成音声を作成し、警察官に学校や病院の閉鎖を要求したり、無実の国民の家に暴力的に侵入したりするよう呼びかけます。
このようなインシデントは、マルチモーダルな生成型 AI のリスクと被害が単独で存在するのではなく、複数の利害関係者と技術的な AI システムの相互作用から生じることを示しています。
この論文では、音声生成インシデントを分析して、特定の危害のパターンがどのように発生するかを研究します。
私たちは、影響を受ける個人の暴露状況、つまり、音声生成システムの対象であるか、音声生成システムと相互作用するか、音声生成システムによって苦しむか、または除外されるかに応じて、特定の危害を分類できることがわかりました。
同様に、特定の危害も、システムの作成者と導入者の動機の結果です。
これらの洞察に基づいて、AI の倫理的および安全性への危害への経路をモデル化するための概念的な枠組みを提案します。これは、音声生成装置の危害の分類を開発するために使用されます。
私たちのリレーショナル アプローチは、社会技術 AI システムにおけるリスクと害の複雑さを捉え、音声生成モデルの責任ある開発とリリースのための適切な政策介入と意思決定をサポートできる分類法を生み出します。

要約(オリジナル)

The rapid and wide-scale adoption of AI to generate human speech poses a range of significant ethical and safety risks to society that need to be addressed. For example, a growing number of speech generation incidents are associated with swatting attacks in the United States, where anonymous perpetrators create synthetic voices that call police officers to close down schools and hospitals, or to violently gain access to innocent citizens’ homes. Incidents like this demonstrate that multimodal generative AI risks and harms do not exist in isolation, but arise from the interactions of multiple stakeholders and technical AI systems. In this paper we analyse speech generation incidents to study how patterns of specific harms arise. We find that specific harms can be categorised according to the exposure of affected individuals, that is to say whether they are a subject of, interact with, suffer due to, or are excluded from speech generation systems. Similarly, specific harms are also a consequence of the motives of the creators and deployers of the systems. Based on these insights we propose a conceptual framework for modelling pathways to ethical and safety harms of AI, which we use to develop a taxonomy of harms of speech generators. Our relational approach captures the complexity of risks and harms in sociotechnical AI systems, and yields a taxonomy that can support appropriate policy interventions and decision making for the responsible development and release of speech generation models.

arxiv情報

著者 Wiebke Hutiri,Oresiti Papakyriakopoulos,Alice Xiang
発行日 2024-05-15 15:26:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, eess.AS パーマリンク