要約
この研究では、自動音声認識 (ASR) をトレーニングするための合成データの有用性を評価します。
ASR トレーニング データを使用して、FastSpeech-2 と同様のテキスト読み上げ (TTS) システムをトレーニングします。
この TTS を使用して、元のトレーニング データを再現し、合成データのみで ASR システムをトレーニングします。
ASR では、アテンションベースのエンコーダ/デコーダ、ハイブリッド ディープ ニューラル ネットワーク隠れマルコフ モデル、ガウス混合隠れマルコフ モデルという 3 つの異なるアーキテクチャを使用し、合成データ生成に対するモデルの異なる感度を示しています。
以前の研究を拡張するために、ASR に対する合成トレーニング データと実際のトレーニング データの有効性に関する多くのアブレーション研究を紹介します。
特に、スピーカーの埋め込みを変更したり、モデルのサイズをスケーリングしたりすることによって、合成データと実際のデータのトレーニング間のギャップがどのように変化するかに焦点を当てます。
後者については、トレーニング スコアが過学習を示している場合でも、TTS モデルが適切に一般化していることを示します。
要約(オリジナル)
In this work we evaluate the utility of synthetic data for training automatic speech recognition (ASR). We use the ASR training data to train a text-to-speech (TTS) system similar to FastSpeech-2. With this TTS we reproduce the original training data, training ASR systems solely on synthetic data. For ASR, we use three different architectures, attention-based encoder-decoder, hybrid deep neural network hidden Markov model and a Gaussian mixture hidden Markov model, showing the different sensitivity of the models to synthetic data generation. In order to extend previous work, we present a number of ablation studies on the effectiveness of synthetic vs. real training data for ASR. In particular we focus on how the gap between training on synthetic and real data changes by varying the speaker embedding or by scaling the model size. For the latter we show that the TTS models generalize well, even when training scores indicate overfitting.
arxiv情報
著者 | Nick Rossenbach,Benedikt Hilmes,Ralf Schlüter |
発行日 | 2024-07-25 12:44:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google