要約
私たちは、文字起こしされた音声データ、テキストのみのデータ、またはその両方の混合でトレーニングできる、エンドツーエンドの自動音声認識 (ASR) システムを提案します。
提案されたモデルは、テキストベースのトレーニングに統合された補助ブロックを使用します。
このブロックは、非自己回帰マルチスピーカー text-to-mel-スペクトログラム ジェネレーターと GAN ベースのエンハンサーを組み合わせて、スペクトログラムの品質を向上させます。
提案されたシステムは、トレーニング中に動的にメル スペクトログラムを生成できます。
このドメインのテキストのみのデータを使用して、ASR モデルを新しいドメインに適応させるために使用できます。
提案されたトレーニング方法は、文字起こしされた音声のみでトレーニングされたシステムと比較して、ASR 精度が大幅に向上することを示します。
また、適応品質とトレーニング速度の点で、ボコーダーを備えたカスケード TTS システムを上回ります。
要約(オリジナル)
We propose an end-to-end Automatic Speech Recognition (ASR) system that can be trained on transcribed speech data, text-only data, or a mixture of both. The proposed model uses an integrated auxiliary block for text-based training. This block combines a non-autoregressive multi-speaker text-to-mel-spectrogram generator with a GAN-based enhancer to improve the spectrogram quality. The proposed system can generate a mel-spectrogram dynamically during training. It can be used to adapt the ASR model to a new domain by using text-only data from this domain. We demonstrate that the proposed training method significantly improves ASR accuracy compared to the system trained on transcribed speech only. It also surpasses cascade TTS systems with the vocoder in the adaptation quality and training speed.
arxiv情報
著者 | Vladimir Bataev,Roman Korostik,Evgeny Shabalin,Vitaly Lavrukhin,Boris Ginsburg |
発行日 | 2023-08-16 12:03:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google