Aligning Translation-Specific Understanding to General Understanding in Large Language Models

要約

大規模言語モデル (LLM) は驚くべき言語理解と生成能力を示していますが、機械翻訳の分野ではまだ革命的な進歩を遂げていません。
パフォーマンスが制限される潜在的な原因の 1 つは、翻訳固有の理解と LLM 内の一般的な理解の間の不一致です。
翻訳特有の理解を一般的な理解に合わせるために、私たちは、翻訳のガイドとして一貫性のない理解が生じている内容に対する一般的な理解を明示的に組み込む、新しい翻訳プロセス xIoD (Cross-Lingual Interpretation of Difficult Words) を提案します。
具体的には、xIoD は翻訳が難しい単語に対して言語間解釈を実行し、生成された解釈で翻訳を強化します。
さらに、QE の外部ツールを再構成して、難しい単語の検出と役立つ解釈の生成における xIoD の課題に取り組みます。
私たちは、複数の SOTA 翻訳システムが一貫してパフォーマンスを下回るケースを含む、自己構築したベンチマーク ChallengeMT で実験を行っています。
実験結果では、xIoD の有効性が示されており、COMET が最大 +3.85 向上します。

要約(オリジナル)

Although large language models (LLMs) have shown surprising language understanding and generation capabilities, they have yet to gain a revolutionary advancement in the field of machine translation. One potential cause of the limited performance is the misalignment between the translation-specific understanding and general understanding inside LLMs. To align the translation-specific understanding to the general one, we propose a novel translation process xIoD (Cross-Lingual Interpretation of Difficult words), explicitly incorporating the general understanding on the content incurring inconsistent understanding to guide the translation. Specifically, xIoD performs the cross-lingual interpretation for the difficult-to-translate words and enhances the translation with the generated interpretations. Furthermore, we reframe the external tools of QE to tackle the challenges of xIoD in the detection of difficult words and the generation of helpful interpretations. We conduct experiments on the self-constructed benchmark ChallengeMT, which includes cases in which multiple SOTA translation systems consistently underperform. Experimental results show the effectiveness of our xIoD, which improves up to +3.85 COMET.

arxiv情報

著者 Yichong Huang,Xiaocheng Feng,Baohang Li,Chengpeng Fu,Wenshuai Huo,Ting Liu,Bing Qin
発行日 2024-01-10 11:03:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク