VideoDubber: Machine Translation with Speech-Aware Length Control for Video Dubbing

要約

ビデオ ダビングは、映画やテレビ番組の元の音声をターゲット言語の音声に翻訳することを目的としています。これは、音声認識、機械翻訳、音声合成からなるカスケード システムによって実現できます。
翻訳された音声が対応するビデオと確実に一致するようにするには、翻訳された音声の長さ/継続時間を元の音声の長さにできる限り近づける必要があり、厳密な長さの制御が必要です。
従来の研究では通常、異なる言語での単語/文字の音声継続時間が異なるため、音声の等時性を考慮せずに、機械翻訳モデルによって生成される単語または文字の数が原文と同様になるように制御されていました。
この論文では、ビデオダビングのタスクに合わせて調整された機械翻訳システムを提案します。このシステムは、翻訳時に各トークンの音声時間を直接考慮して、ソース音声とターゲット音声の長さを一致させます。
具体的には、各単語の音声長と、残りの単語の残りの長さを含む長さ情報を使用して各単語の予測をガイドすることにより、生成される文の音声長を制御します。
4 つの言語方向 (ドイツ語 -> 英語、スペイン語 -> 英語、中国語 <-> 英語) に関する実験を計画しました。その結果、提案された方法は、ベースライン方法よりも生成された音声の長さ制御能力が優れていることがわかりました。
現実世界のデータセットの不足を補うために、映画から収集した現実世界のテスト セットも構築し、ビデオのダビング タスクに関する包括的な評価を提供します。

要約(オリジナル)

Video dubbing aims to translate the original speech in a film or television program into the speech in a target language, which can be achieved with a cascaded system consisting of speech recognition, machine translation and speech synthesis. To ensure the translated speech to be well aligned with the corresponding video, the length/duration of the translated speech should be as close as possible to that of the original speech, which requires strict length control. Previous works usually control the number of words or characters generated by the machine translation model to be similar to the source sentence, without considering the isochronicity of speech as the speech duration of words/characters in different languages varies. In this paper, we propose a machine translation system tailored for the task of video dubbing, which directly considers the speech duration of each token in translation, to match the length of source and target speech. Specifically, we control the speech length of generated sentence by guiding the prediction of each word with the duration information, including the speech duration of itself as well as how much duration is left for the remaining words. We design experiments on four language directions (German -> English, Spanish -> English, Chinese <-> English), and the results show that the proposed method achieves better length control ability on the generated speech than baseline methods. To make up the lack of real-world datasets, we also construct a real-world test set collected from films to provide comprehensive evaluations on the video dubbing task.

arxiv情報

著者 Yihan Wu,Junliang Guo,Xu Tan,Chen Zhang,Bohan Li,Ruihua Song,Lei He,Sheng Zhao,Arul Menezes,Jiang Bian
発行日 2023-12-05 01:24:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, cs.MM, eess.AS パーマリンク