Anonymizing Speech: Evaluating and Designing Speaker Anonymization Techniques

要約

音声ユーザー インターフェイスの使用の増加により、音声データの収集と保存が急増しています。
データ収集により、ほとんどの音声サービスを強化する効率的なツールの開発が可能になりますが、集中ストレージによりプライベートな個人音声データがサイバー脅威に対して脆弱になるため、ユーザーに深刻なプライバシー問題も引き起こします。
Amazon の Alexa、Google の Home、Apple の Siri などの音声ベースのデジタル アシスタントの使用が増加し、個人の音声データの収集が容易になるにつれて、音声クローンや話者/性別/病的データの悪意のある使用のリスクが高まっています。
/等。
認知度が上がりました。
この論文では、音声を匿名化し、匿名化の程度を評価するためのソリューションを提案します。
この研究において、匿名化とは、音声信号の有用性 (実用性) (言語コンテンツへのアクセスなど) を維持しながら、個人の音声データを身元と関連付けないようにすることを指します。
まず、プライバシー保護の程度を適切に評価するために評価プロトコルで考慮する必要があるいくつかの課題を特定します。
評価目的で匿名化システムをどのように構成する必要があるかを明確にし、実際の展開構成の多くではプライバシー評価が許可されていないことを強調します。
さらに、最も一般的な音声変換ベースの匿名化システムを調査および検討し、いくつかの制限を克服するための新しい方法を提案する前に、その弱点を特定します。
匿名化システムのすべてのコンポーネントを分離して、それぞれに関連付けられた話者 PPI の程度を評価します。
次に、実用性を維持しながらスピーカーの PPI を可能な限り削減するために、コンポーネントごとにいくつかの変換方法を提案します。
私たちは、最もよく使用されているよく知られたノイズベースのアプローチの代替として、量子化ベースの変換に基づく匿名化アルゴリズムを推進しています。
最後に、匿名化を逆転する新しい攻撃手法を試みます。

要約(オリジナル)

The growing use of voice user interfaces has led to a surge in the collection and storage of speech data. While data collection allows for the development of efficient tools powering most speech services, it also poses serious privacy issues for users as centralized storage makes private personal speech data vulnerable to cyber threats. With the increasing use of voice-based digital assistants like Amazon’s Alexa, Google’s Home, and Apple’s Siri, and with the increasing ease with which personal speech data can be collected, the risk of malicious use of voice-cloning and speaker/gender/pathological/etc. recognition has increased. This thesis proposes solutions for anonymizing speech and evaluating the degree of the anonymization. In this work, anonymization refers to making personal speech data unlinkable to an identity while maintaining the usefulness (utility) of the speech signal (e.g., access to linguistic content). We start by identifying several challenges that evaluation protocols need to consider to evaluate the degree of privacy protection properly. We clarify how anonymization systems must be configured for evaluation purposes and highlight that many practical deployment configurations do not permit privacy evaluation. Furthermore, we study and examine the most common voice conversion-based anonymization system and identify its weak points before suggesting new methods to overcome some limitations. We isolate all components of the anonymization system to evaluate the degree of speaker PPI associated with each of them. Then, we propose several transformation methods for each component to reduce as much as possible speaker PPI while maintaining utility. We promote anonymization algorithms based on quantization-based transformation as an alternative to the most-used and well-known noise-based approach. Finally, we endeavor a new attack method to invert anonymization.

arxiv情報

著者 Pierre Champion
発行日 2023-12-19 16:33:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.SD, eess.AS パーマリンク