要約
大規模言語モデル (LLM) の優れた理解および生成能力により、翻訳パフォーマンスが大幅に向上しました。
しかし、翻訳対象の文章を誤って理解すると、翻訳の品質が低下する可能性があります。
この問題に対処するために、LLM の異言語機能と翻訳タスクの 2 つの特性に基づいた新しい反復二言語理解翻訳 (IBUT) 方法を提案しました。
LLM のクロスリンガル機能により、ソース言語とターゲット言語の両方について個別に文脈上の理解を生成できます。
さらに、IBUT はこの 2 つの特性により、言語を超えた効果的なフィードバックを生成し、文脈上の理解を繰り返し改善することで、エラーを減らし、翻訳パフォーマンスを向上させることができます。
実験結果は、提案された IBUT がいくつかの強力な比較方法、特に複数のドメイン (ニュース、常識、文化翻訳ベンチマークなど) に一般化されている方法よりも優れていることを示しました。
要約(オリジナル)
The remarkable understanding and generation capabilities of large language models (LLMs) have greatly improved translation performance. However, incorrect understanding of the sentence to be translated can degrade translation quality. To address this issue, we proposed a novel Iterative Bilingual Understanding Translation (IBUT) method based on the cross-lingual capabilities of LLMs and the dual characteristics of translation tasks. The cross-lingual capability of LLMs enables the generation of contextual understanding for both the source and target languages separately. Furthermore, the dual characteristics allow IBUT to generate effective cross-lingual feedback, iteratively refining contextual understanding, thereby reducing errors and improving translation performance. Experimental results showed that the proposed IBUT outperforms several strong comparison methods, especially being generalized to multiple domains (e.g., news, commonsense, and cultural translation benchmarks).
arxiv情報
著者 | Andong Chen,Kehai Chen,Yang Xiang,Xuefeng Bai,Muyun Yang,Yang Feng,Tiejun Zhao,Min zhang |
発行日 | 2024-12-30 07:57:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google