要約
大規模言語モデル (LLM) は、対象の言語に関する特別なトレーニングを受けていなくても、機械翻訳 (MT) において顕著な習熟度を示しています。
ただし、低リソースまたはドメイン固有のコンテキストでまれな単語を翻訳することは、LLM にとって依然として困難です。
この問題に対処するために、意味の正確性に重要な重要な用語に優先順位を付けることで翻訳の忠実性を高める、複数ステップのプロンプト チェーンを提案します。
私たちの方法では、まずこれらのキーワードを識別し、その翻訳を二か国語辞書から取得し、検索拡張生成 (RAG) を使用してそれらを LLM のコンテキストに統合します。
さらに、LLM が語彙的および意味的制約に基づいて翻訳を改良する反復的な自己チェック メカニズムを通じて、長いプロンプトによって引き起こされる潜在的な出力幻覚を軽減します。
FLORES-200 および WMT データセットのベースモデルとして Llama と Qwen を使用した実験では、ベースラインに比べて大幅な改善が見られ、特にリソースが少ないシナリオにおいて、翻訳の忠実性と堅牢性を強化する際のアプローチの有効性が強調されています。
要約(オリジナル)
Large language models (LLMs) have demonstrated remarkable proficiency in machine translation (MT), even without specific training on the languages in question. However, translating rare words in low-resource or domain-specific contexts remains challenging for LLMs. To address this issue, we propose a multi-step prompt chain that enhances translation faithfulness by prioritizing key terms crucial for semantic accuracy. Our method first identifies these keywords and retrieves their translations from a bilingual dictionary, integrating them into the LLM’s context using Retrieval-Augmented Generation (RAG). We further mitigate potential output hallucinations caused by long prompts through an iterative self-checking mechanism, where the LLM refines its translations based on lexical and semantic constraints. Experiments using Llama and Qwen as base models on the FLORES-200 and WMT datasets demonstrate significant improvements over baselines, highlighting the effectiveness of our approach in enhancing translation faithfulness and robustness, particularly in low-resource scenarios.
arxiv情報
著者 | Shangfeng Chen,Xiayang Shi,Pu Li,Yinlin Li,Jingjing Liu |
発行日 | 2024-11-13 05:40:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google