要約
ニューラル機械翻訳 (NMT) の進化は、この分野の進歩のベンチマークとして機能する 6 つの主要な課題 (Koehn and Knowles、2017) によって大きく影響を受けてきました。
この研究では、これらの課題を再検討し、高度な大規模言語モデル (LLM) のコンテキストでの継続的な関連性についての洞察を提供します。ドメインの不一致、並列データの量、レアワードの予測、長文の翻訳、単語アライメントとしての注意モデル、および下位言語モデルです。
最適なビームサーチ。
私たちの経験的調査結果は、LLM が事前トレーニング段階における主要言語の並列データへの依存を効果的に軽減することを示しています。
さらに、LLM ベースの翻訳システムは、約 80 単語を含む長文の翻訳を大幅に強化し、最大 512 単語の文書を翻訳できる機能を示します。
ただし、これらの大幅な改善にもかかわらず、ドメインの不一致と珍しい単語の予測という課題は依然として残っています。
特に NMT に関連する単語のアライメントとビーム検索の課題は LLM には当てはまらないかもしれませんが、翻訳タスクにおける LLM の 3 つの新たな課題を特定します。それは、推論効率、事前トレーニング段階での低リソース言語の翻訳、および人間によるアライメントです。
評価。
データセットとモデルは https://github.com/pangjh3/LLM4MT でリリースされています。
要約(オリジナル)
The evolution of Neural Machine Translation (NMT) has been significantly influenced by six core challenges (Koehn and Knowles, 2017), which have acted as benchmarks for progress in this field. This study revisits these challenges, offering insights into their ongoing relevance in the context of advanced Large Language Models (LLMs): domain mismatch, amount of parallel data, rare word prediction, translation of long sentences, attention model as word alignment, and sub-optimal beam search. Our empirical findings indicate that LLMs effectively lessen the reliance on parallel data for major languages in the pretraining phase. Additionally, the LLM-based translation system significantly enhances the translation of long sentences that contain approximately 80 words and shows the capability to translate documents of up to 512 words. However, despite these significant improvements, the challenges of domain mismatch and prediction of rare words persist. While the challenges of word alignment and beam search, specifically associated with NMT, may not apply to LLMs, we identify three new challenges for LLMs in translation tasks: inference efficiency, translation of low-resource languages in the pretraining phase, and human-aligned evaluation. The datasets and models are released at https://github.com/pangjh3/LLM4MT.
arxiv情報
著者 | Jianhui Pang,Fanghua Ye,Longyue Wang,Dian Yu,Derek F. Wong,Shuming Shi,Zhaopeng Tu |
発行日 | 2024-01-17 06:47:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google