要約
すべてのコンポーネントを共同で最適化できる直接音声音声変換 (S2ST) は、簡略化されたパイプラインで高速推論を実現するために、カスケード アプローチよりも有利です。
我々は、最初にテキスト表現を生成し、続いて離散音響ユニットを予測する、新しい 2 パス直接 S2ST アーキテクチャ UnitY を提案します。
ファーストパス デコーダでのサブワード予測、高度な 2 パス デコーダ アーキテクチャ設計と検索戦略、およびトレーニング正則化の改善により、モデルのパフォーマンスが強化されています。
大量のラベルなしテキスト データを活用するために、自己教師ありノイズ除去自動エンコーディング タスクに基づいてファーストパス テキスト デコーダーを事前トレーニングします。
さまざまなデータ スケールでのベンチマーク データセットの実験評価では、UnitY がシングルパスの音声から単位への変換モデルよりも 2.5 ~ 4.2 ASR-BLEU の性能を上回り、デコード速度が 2.83 倍であることが実証されました。
提案された方法により、2 番目のパスでスペクトログラムを予測する場合でもパフォーマンスが向上することを示します。
ただし、離散単位を予測すると、その場合と比較して 2.51 倍のデコード速度の向上が達成されます。
要約(オリジナル)
Direct speech-to-speech translation (S2ST), in which all components can be optimized jointly, is advantageous over cascaded approaches to achieve fast inference with a simplified pipeline. We present a novel two-pass direct S2ST architecture, UnitY, which first generates textual representations and predicts discrete acoustic units subsequently. We enhance the model performance by subword prediction in the first-pass decoder, advanced two-pass decoder architecture design and search strategy, and better training regularization. To leverage large amounts of unlabeled text data, we pre-train the first-pass text decoder based on the self-supervised denoising auto-encoding task. Experimental evaluations on benchmark datasets at various data scales demonstrate that UnitY outperforms a single-pass speech-to-unit translation model by 2.5-4.2 ASR-BLEU with 2.83x decoding speed-up. We show that the proposed methods boost the performance even when predicting spectrogram in the second pass. However, predicting discrete units achieves 2.51x decoding speed-up compared to that case.
arxiv情報
著者 | Hirofumi Inaguma,Sravya Popuri,Ilia Kulikov,Peng-Jen Chen,Changhan Wang,Yu-An Chung,Yun Tang,Ann Lee,Shinji Watanabe,Juan Pino |
発行日 | 2023-05-26 16:07:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google