要約
リアルタイムでインテリジェントかつ自然な音声対話は、次世代の人間とコンピュータの対話に不可欠な要素です。最近の進歩により、大規模言語モデル(LLM)に基づくインテリジェントな音声チャットボット構築の可能性が示されている。本稿では、0.5Bから14Bのパラメータを持ち、高品質なリアルタイム音声対話を実現できる一連の音声言語モデル(SpeechLM)であるLLaMA-Omni 2を紹介する。LLaMA-Omni 2はQwen2.5シリーズをベースに構築されており、音声エンコーダと自己回帰ストリーミング音声デコーダを統合しています。LLaMA-Omni 2は、わずか20万ターンの音声対話サンプルで学習されたにもかかわらず、いくつかの音声質問応答や音声指示に続くベンチマークにおいて、数百万時間の音声データで学習されたGLM-4-Voiceのような従来の最先端SpeechLMを凌ぐ強力なパフォーマンスを示しています。
要約(オリジナル)
Real-time, intelligent, and natural speech interaction is an essential part of the next-generation human-computer interaction. Recent advancements have showcased the potential of building intelligent spoken chatbots based on large language models (LLMs). In this paper, we introduce LLaMA-Omni 2, a series of speech language models (SpeechLMs) ranging from 0.5B to 14B parameters, capable of achieving high-quality real-time speech interaction. LLaMA-Omni 2 is built upon the Qwen2.5 series models, integrating a speech encoder and an autoregressive streaming speech decoder. Despite being trained on only 200K multi-turn speech dialogue samples, LLaMA-Omni 2 demonstrates strong performance on several spoken question answering and speech instruction following benchmarks, surpassing previous state-of-the-art SpeechLMs like GLM-4-Voice, which was trained on millions of hours of speech data.
arxiv情報
著者 | Qingkai Fang,Yan Zhou,Shoutao Guo,Shaolei Zhang,Yang Feng |
発行日 | 2025-05-05 12:53:09+00:00 |
arxivサイト | arxiv_id(pdf) |