要約
言語モデルの最近の進歩により、複数の音声関連タスクのパフォーマンスが大幅に向上しました。
既存の音声言語モデルは通常、タスク依存のプロンプト トークンを利用して、さまざまな音声タスクを 1 つのモデルに統合します。
ただし、この設計では、さまざまな音声タスク間の固有の接続が省略されているため、各タスクのパフォーマンスが向上する可能性があります。
この研究では、プロンプト トークンの固定セットを構成することで一般的な音声タスクを統合できる、新しいデコーダ専用音声言語モデル SpeechComposer を提案します。
SpeechComposer は、音声合成、音声認識、音声言語モデリング、テキスト言語モデリングという 4 つの主要なタスクに基づいて構築されており、音声変換や音声強調など、適切に設計されたプロンプト トークンの合成を通じて、より多くの音声タスクに簡単に拡張できます。
プロンプト トークンの統合により、より構造化された方法で、さまざまな音声タスク間で知識を共有することも可能になります。
実験結果は、私たちが提案した SpeechComposer が主要タスクと複合タスクの両方のパフォーマンスを向上できることを示し、共有プロンプト トークンの有効性を示しています。
注目すべきことに、統合されたデコーダ専用モデルは、単一タスク用に設計されたエキスパート モデルであるベースラインと同等、さらにはそれよりも優れたパフォーマンスを実現します。
要約(オリジナル)
Recent advancements in language models have significantly enhanced performance in multiple speech-related tasks. Existing speech language models typically utilize task-dependent prompt tokens to unify various speech tasks in a single model. However, this design omits the intrinsic connections between different speech tasks, which can potentially boost the performance of each task. In this work, we propose a novel decoder-only speech language model, SpeechComposer, that can unify common speech tasks by composing a fixed set of prompt tokens. Built upon four primary tasks — speech synthesis, speech recognition, speech language modeling, and text language modeling — SpeechComposer can easily extend to more speech tasks via compositions of well-designed prompt tokens, like voice conversion and speech enhancement. The unification of prompt tokens also makes it possible for knowledge sharing among different speech tasks in a more structured manner. Experimental results demonstrate that our proposed SpeechComposer can improve the performance of both primary tasks and composite tasks, showing the effectiveness of the shared prompt tokens. Remarkably, the unified decoder-only model achieves a comparable and even better performance than the baselines which are expert models designed for single tasks.
arxiv情報
著者 | Yihan Wu,Soumi Maiti,Yifan Peng,Wangyou Zhang,Chenda Li,Yuyue Wang,Xihua Wang,Shinji Watanabe,Ruihua Song |
発行日 | 2024-01-31 18:06:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google