要約
ジェネレーティブ マルチモーダル コンテンツは、アーティストやメディア担当者が自分たちのアイデアを素早く実現して、制作前のモックアップを作成できる可能性があるため、多くのコンテンツ作成分野でますます普及しています。
テキスト プロンプトから音声を生成することは、音楽および映画業界におけるこのようなプロセスの重要な側面です。
最近の拡散ベースのテキスト音声変換モデルの多くは、プロンプト音声ペアの大規模なデータセット上でますます洗練された拡散モデルをトレーニングすることに重点を置いています。
これらのモデルは、入力プロンプトに対する出力オーディオ内の概念やイベントの存在とそれらの時間的順序に明示的に焦点を当てていません。
私たちの仮説は、オーディオ生成のこれらの側面が、限られたデータの存在下でオーディオ生成のパフォーマンスをどのように向上させることができるかに焦点を当てています。
そのため、この作業では、既存のテキスト音声変換モデル Tango を使用して、拡散モデルが学習するための各プロンプトに勝者の音声出力といくつかの敗者の音声出力がある嗜好データセットを合成的に作成します。
理論上、敗者の出力には、プロンプトの一部のコンセプトが欠落しているか、順序が間違っています。
私たちは、嗜好データセットの拡散 DPO (直接嗜好最適化) 損失を使用して、公開されている Tango テキスト音声変換モデルを微調整し、自動と手動の両方の点で、Tango と AudioLDM2 よりも音声出力の向上につながることを示します。
– 評価指標。
要約(オリジナル)
Generative multimodal content is increasingly prevalent in much of the content creation arena, as it has the potential to allow artists and media personnel to create pre-production mockups by quickly bringing their ideas to life. The generation of audio from text prompts is an important aspect of such processes in the music and film industry. Many of the recent diffusion-based text-to-audio models focus on training increasingly sophisticated diffusion models on a large set of datasets of prompt-audio pairs. These models do not explicitly focus on the presence of concepts or events and their temporal ordering in the output audio with respect to the input prompt. Our hypothesis is focusing on how these aspects of audio generation could improve audio generation performance in the presence of limited data. As such, in this work, using an existing text-to-audio model Tango, we synthetically create a preference dataset where each prompt has a winner audio output and some loser audio outputs for the diffusion model to learn from. The loser outputs, in theory, have some concepts from the prompt missing or in an incorrect order. We fine-tune the publicly available Tango text-to-audio model using diffusion-DPO (direct preference optimization) loss on our preference dataset and show that it leads to improved audio output over Tango and AudioLDM2, in terms of both automatic- and manual-evaluation metrics.
arxiv情報
著者 | Navonil Majumder,Chia-Yu Hung,Deepanway Ghosal,Wei-Ning Hsu,Rada Mihalcea,Soujanya Poria |
発行日 | 2024-07-17 16:17:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google