要約
【タイトル】様々なニューラル機械翻訳のための統合モデル学習
【要約】
– 従来のニューラル機械翻訳の研究では、異なるタスク(例:ドキュメント翻訳、チャット翻訳など)のデータに基づいて、データセット固有のモデルを開発することに重点が置かれていた。
– データセット固有のモデルは素晴らしい性能を発揮しているが、各データセットにはモデルの設計、トレーニング、格納が必要で手間がかかる。
– この研究では、これらの翻訳タスクをより一般的な設定に統合することを目的としている。
– 具体的には、様々なタスクのデータで動作し、一度に複数の設定で翻訳することができる「多様性のある」モデル、すなわち「統合モデル学習のためのニューラル機械翻訳(UMLNMT)」を提案している。
– 統一学習により、UMLNMTは複数のタスクを統合的に学習し、要求に応じたインテリジェントな翻訳を実現できる。
– 文章翻訳、ドキュメント翻訳、チャット翻訳など、7つの広く使用される翻訳タスクにおいて、UMLNMTはデータセット固有のモデルよりも大幅に改善し、モデルの展開コストを大幅に削減する。
– さらに、UMLNMTは最新のデータセット固有の手法よりも競争力のあるまたは優れた性能を発揮することができる。人間の評価と深い分析により、多様で高品質な翻訳を生成するには、我々のアプローチの優位性が証明されている。
– 加えて、有名な格言に関する186,000件の中国語->英語の文のペアについて、新しいジャンルの翻訳データセットを提供する。
要約(オリジナル)
Existing neural machine translation (NMT) studies mainly focus on developing dataset-specific models based on data from different tasks (e.g., document translation and chat translation). Although the dataset-specific models have achieved impressive performance, it is cumbersome as each dataset demands a model to be designed, trained, and stored. In this work, we aim to unify these translation tasks into a more general setting. Specifically, we propose a “versatile” model, i.e., the Unified Model Learning for NMT (UMLNMT) that works with data from different tasks, and can translate well in multiple settings simultaneously, and theoretically it can be as many as possible. Through unified learning, UMLNMT is able to jointly train across multiple tasks, implementing intelligent on-demand translation. On seven widely-used translation tasks, including sentence translation, document translation, and chat translation, our UMLNMT results in substantial improvements over dataset-specific models with significantly reduced model deployment costs. Furthermore, UMLNMT can achieve competitive or better performance than state-of-the-art dataset-specific methods. Human evaluation and in-depth analysis also demonstrate the superiority of our approach on generating diverse and high-quality translations. Additionally, we provide a new genre translation dataset about famous aphorisms with 186k Chinese->English sentence pairs.
arxiv情報
| 著者 | Yunlong Liang,Fandong Meng,Jinan Xu,Jiaan Wang,Yufeng Chen,Jie Zhou |
| 発行日 | 2023-05-04 12:21:52+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI