A Study on Bias and Fairness In Deep Speaker Recognition

要約

個人を認証し、サービスをパーソナライズする手段として話者認識 (SR) システムを使用するスマート デバイスの普及により、SR システムの公平性が重要な焦点となっています。
この論文では、最近の SR システムにおける公平性の概念を、一般的で関連性のある 3 つの定義、すなわち統計的パリティ、均等化オッズ、および機会均等に基づいて研究します。
性別および国籍グループに対する公平性を評価しながら、SR システムのトレーニングで 5 つの一般的なニューラル アーキテクチャと 5 つの一般的に使用される損失関数を調べます。
私たちの詳細な実験は、この概念に光を当て、より洗練されたエンコーダー アーキテクチャが公平性の定義により適していることを示しています。
さらに、損失関数の選択がSRモデルのバイアスに大きな影響を与える可能性があることがわかりました。

要約(オリジナル)

With the ubiquity of smart devices that use speaker recognition (SR) systems as a means of authenticating individuals and personalizing their services, fairness of SR systems has becomes an important point of focus. In this paper we study the notion of fairness in recent SR systems based on 3 popular and relevant definitions, namely Statistical Parity, Equalized Odds, and Equal Opportunity. We examine 5 popular neural architectures and 5 commonly used loss functions in training SR systems, while evaluating their fairness against gender and nationality groups. Our detailed experiments shed light on this concept and demonstrate that more sophisticated encoder architectures better align with the definitions of fairness. Additionally, we find that the choice of loss functions can significantly impact the bias of SR models.

arxiv情報

著者 Amirhossein Hajavi,Ali Etemad
発行日 2023-03-14 16:08:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SD, eess.AS パーマリンク