Improving Cascaded Unsupervised Speech Translation with Denoising Back-translation

要約

音声翻訳モデルの多くはパラレルデータに大きく依存しており、特に低リソース言語では収集が困難である。この問題に対処するため、我々は、ペアデータを利用しないカスケード型音声翻訳システムを構築することを提案する。我々は、教師なしシステムの学習に完全な非対照データを使用し、CoVoST 2とCVSSでその結果を評価する。その結果、いくつかの言語ペアにおいて、私たちの成果は他の初期の教師あり手法と同等であることが示されました。カスケード接続されたシステムは常に深刻なエラー伝播の問題を抱えているが、我々は頑健な教師なしニューラル機械翻訳(UNMT)を構築するための新しいアプローチであるノイズ除去バックトランスレーション(DBT)を提案した。DBTは、3つの翻訳方向すべてにおいて、BLEUスコアを0.7~0.9増加させることに成功しました。さらに、推論レイテンシを低減するためにカスケードシステムのパイプラインを簡略化し、あらゆる部分の包括的な分析を実施しました。また、教師なし音声翻訳の成果を、定評あるウェブサイト上で実証しています。

要約(オリジナル)

Most of the speech translation models heavily rely on parallel data, which is hard to collect especially for low-resource languages. To tackle this issue, we propose to build a cascaded speech translation system without leveraging any kind of paired data. We use fully unpaired data to train our unsupervised systems and evaluate our results on CoVoST 2 and CVSS. The results show that our work is comparable with some other early supervised methods in some language pairs. While cascaded systems always suffer from severe error propagation problems, we proposed denoising back-translation (DBT), a novel approach to building robust unsupervised neural machine translation (UNMT). DBT successfully increases the BLEU score by 0.7–0.9 in all three translation directions. Moreover, we simplified the pipeline of our cascaded system to reduce inference latency and conducted a comprehensive analysis of every part of our work. We also demonstrate our unsupervised speech translation results on the established website.

arxiv情報

著者 Yu-Kuan Fu,Liang-Hsuan Tseng,Jiatong Shi,Chen-An Li,Tsu-Yuan Hsu,Shinji Watanabe,Hung-yi Lee
発行日 2023-05-12 13:07:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.SD, eess.AS パーマリンク