Cluster-Guided Unsupervised Domain Adaptation for Deep Speaker Embedding

要約

最近の研究では、疑似ラベルが話者検証のための教師なしドメイン適応 (UDA) に寄与できることが示されています。
既存の分類子を使用して再トレーニング用にラベル付けされていないデータにラベルを付ける自己トレーニング戦略に着想を得て、クラスタリングによってターゲット ドメイン データにラベルを付け、ラベル付けされたソース ドメイン データと疑似ラベル付けされたターゲット ドメイン データを結合するクラスター ガイド付き UDA フレームワークを提案します。
スピーカー埋め込みネットワークをトレーニングします。
クラスターの品質を向上させるために、対照的な中心損失を最小限に抑えることにより、クラスター専用のスピーカー埋め込みネットワークをトレーニングします。
目標は、埋め込みとその割り当てられたクラスター中心の間の距離を縮めながら、埋め込みと他のクラスター中心の間の距離を拡大することです。
VoxCeleb2 をソース ドメインとして使用し、CN-Celeb1 をターゲット ドメインとして使用して、提案された方法がターゲット ドメインからのラベルを使用せずに CN-Celeb1 評価セットで 8.10% の等誤り率 (EER) を達成できることを示します。
この結果は、教師ありベースラインを 39.6% 上回っており、このコーパスでの最先端の UDA パフォーマンスです。

要約(オリジナル)

Recent studies have shown that pseudo labels can contribute to unsupervised domain adaptation (UDA) for speaker verification. Inspired by the self-training strategies that use an existing classifier to label the unlabeled data for retraining, we propose a cluster-guided UDA framework that labels the target domain data by clustering and combines the labeled source domain data and pseudo-labeled target domain data to train a speaker embedding network. To improve the cluster quality, we train a speaker embedding network dedicated for clustering by minimizing the contrastive center loss. The goal is to reduce the distance between an embedding and its assigned cluster center while enlarging the distance between the embedding and the other cluster centers. Using VoxCeleb2 as the source domain and CN-Celeb1 as the target domain, we demonstrate that the proposed method can achieve an equal error rate (EER) of 8.10% on the CN-Celeb1 evaluation set without using any labels from the target domain. This result outperforms the supervised baseline by 39.6% and is the state-of-the-art UDA performance on this corpus.

arxiv情報

著者 Haiquan Mao,Feng Hong,Man-wai Mak
発行日 2023-03-28 12:58:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SD, eess.AS パーマリンク