要約
この論文では、元の話者の言語に関係なくターゲット言語の発音を保持することを目的とした、エンドツーエンドの言語間テキスト読み上げ (TTS) の方法を紹介します。
使用されるモデルは、非注意型 Tacotron アーキテクチャに基づいており、デコーダが話者のアイデンティティに条件付けされた正規化フロー ネットワークに置き換えられており、固有の特性により TTS と音声変換 (VC) の両方を同じモデルで実行できます。
言語コンテンツと話者のアイデンティティのもつれを解く。
言語をまたいだ設定で使用される場合、音響特徴は最初にターゲット言語のネイティブ スピーカーで生成され、次に同じモデルによって音声変換が適用されて、これらの特徴をターゲット スピーカーの音声に変換します。
私たちは、客観的および主観的な評価を通じて、ベースラインの異言語合成と比較して、私たちの方法に利点があることを検証します。
平均スピーチ時間が 7.5 分の講演者を含めることにより、リソースが少ないシナリオでも肯定的な結果が得られます。
要約(オリジナル)
This paper presents a method for end-to-end cross-lingual text-to-speech (TTS) which aims to preserve the target language’s pronunciation regardless of the original speaker’s language. The model used is based on a non-attentive Tacotron architecture, where the decoder has been replaced with a normalizing flow network conditioned on the speaker identity, allowing both TTS and voice conversion (VC) to be performed by the same model due to the inherent linguistic content and speaker identity disentanglement. When used in a cross-lingual setting, acoustic features are initially produced with a native speaker of the target language and then voice conversion is applied by the same model in order to convert these features to the target speaker’s voice. We verify through objective and subjective evaluations that our method can have benefits compared to baseline cross-lingual synthesis. By including speakers averaging 7.5 minutes of speech, we also present positive results on low-resource scenarios.
arxiv情報
著者 | Nikolaos Ellinas,Georgios Vamvoukakis,Konstantinos Markopoulos,Georgia Maniati,Panos Kakoulidis,June Sig Sung,Inchul Hwang,Spyros Raptis,Aimilios Chalamandaris,Pirros Tsiakoulis |
発行日 | 2024-02-27 13:14:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google