Llasa: Scaling Train-Time and Inference-Time Compute for Llama-based Speech Synthesis

要約

特にGPTシリーズとO1モデルで、テキストベースの大手言語モデル(LLMS)の最近の進歩は、トレーニング時間と推論時間計算の両方をスケーリングする有効性を実証しています。
ただし、LLMSを活用する現在の最先端のTTSシステムは、多くの場合マルチステージであり、個別のモデル(LLM後の拡散モデルなど)が必要であり、トレーニングまたはテスト中に特定のモデルを拡張するかどうかの決定を複雑にします。
この作業は次の貢献をします。まず、音声合成のためのトレインタイムと推論時間計算のスケーリングを調べます。
第二に、単一層のベクター量子化器(VQ)コーデックを使用して、Llamaなどの標準LLMと完全に整合する単一の変圧器アーキテクチャを使用する音声合成のための簡単なフレームワークLLASAを提案します。
私たちの実験は、LLASAのスケーリングトレインタイム計算により、合成された音声の自然性が一貫して改善され、より複雑で正確な韻律パターンの生成が可能になることが明らかになりました。
さらに、スケーリングの推論時間計算の観点から、検索中にスピーチ理解モデルを検証剤として使用し、スケーリング推論時間計算により、サンプリングモードが特定の検証剤の好みに向かってシフトし、それによって感情的な表現性、音色の一貫性、および
コンテンツの精度。
さらに、TTSモデル(1b、3b、8b)のチェックポイントとトレーニングコードをリリースし、コーデックモデルを公開しています。

要約(オリジナル)

Recent advances in text-based large language models (LLMs), particularly in the GPT series and the o1 model, have demonstrated the effectiveness of scaling both training-time and inference-time compute. However, current state-of-the-art TTS systems leveraging LLMs are often multi-stage, requiring separate models (e.g., diffusion models after LLM), complicating the decision of whether to scale a particular model during training or testing. This work makes the following contributions: First, we explore the scaling of train-time and inference-time compute for speech synthesis. Second, we propose a simple framework Llasa for speech synthesis that employs a single-layer vector quantizer (VQ) codec and a single Transformer architecture to fully align with standard LLMs such as Llama. Our experiments reveal that scaling train-time compute for Llasa consistently improves the naturalness of synthesized speech and enables the generation of more complex and accurate prosody patterns. Furthermore, from the perspective of scaling inference-time compute, we employ speech understanding models as verifiers during the search, finding that scaling inference-time compute shifts the sampling modes toward the preferences of specific verifiers, thereby improving emotional expressiveness, timbre consistency, and content accuracy. In addition, we released the checkpoint and training code for our TTS model (1B, 3B, 8B) and codec model publicly available.

arxiv情報

著者 Zhen Ye,Xinfa Zhu,Chi-Min Chan,Xinsheng Wang,Xu Tan,Jiahe Lei,Yi Peng,Haohe Liu,Yizhu Jin,Zheqi DAI,Hongzhan Lin,Jianyi Chen,Xingjian Du,Liumeng Xue,Yunlin Chen,Zhifei Li,Lei Xie,Qiuqiang Kong,Yike Guo,Wei Xue
発行日 2025-02-06 15:04:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.MM, cs.SD, eess.AS パーマリンク