要約
最近の Zero-Shot Text-to-Speech (ZS-TTS) モデルは、高い自然性と話者の類似性を実現していますが、アクセントの忠実性と制御の点で不十分です。
この問題に対処するために、外部アクセント変換 (FAC)、アクセント付き TTS、および ZS-TTS を新しい 2 段階のパイプラインで統合するゼロショット アクセント生成を提案します。
最初の段階では、アクセント識別 (AID) に関して、目に見えない話者で 0.56 f1 スコアの最先端 (SOTA) を達成します。
第 2 段階では、AID モデルによって抽出された、事前学習済みの話者に依存しないアクセント埋め込みに基づいて ZS-TTS システムを条件付けします。
提案されたシステムは、固有/相互アクセント生成においてより高いアクセント忠実度を達成し、目に見えないアクセント生成を可能にします。
要約(オリジナル)
While recent Zero-Shot Text-to-Speech (ZS-TTS) models have achieved high naturalness and speaker similarity, they fall short in accent fidelity and control. To address this issue, we propose zero-shot accent generation that unifies Foreign Accent Conversion (FAC), accented TTS, and ZS-TTS, with a novel two-stage pipeline. In the first stage, we achieve state-of-the-art (SOTA) on Accent Identification (AID) with 0.56 f1 score on unseen speakers. In the second stage, we condition a ZS-TTS system on the pretrained speaker-agnostic accent embeddings extracted by the AID model. The proposed system achieves higher accent fidelity on inherent/cross accent generation, and enables unseen accent generation.
arxiv情報
著者 | Jinzuomu Zhong,Korin Richmond,Zhiba Su,Siqi Sun |
発行日 | 2025-01-09 16:20:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google