要約
大規模言語モデル (LLM) は機械翻訳において大きな可能性を示していますが、新しい単語やドメイン固有の単語など、文脈に依存する用語には依然として苦労しています。
これにより、対処が困難な不整合やエラーが発生します。
既存のソリューションは多くの場合、そのような用語を手動で識別することに依存していますが、言語の複雑さと進化する性質を考慮すると、これは現実的ではありません。
検索拡張生成 (RAG) はある程度の支援を提供する可能性がありますが、翻訳への応用は、情報過多による幻覚などの問題によって制限されます。
この論文では、これらの課題に対処するために、RAG と因果関係を強化した内省を活用する新しいマルチエージェント翻訳フレームワークである CRAT を提案します。
このフレームワークは、いくつかの特殊なエージェントで構成されます。不明な用語識別エージェントはコンテキスト内で未知の用語を検出し、ナレッジ グラフ (KG) コンストラクター エージェントはこれらの用語に関する関連する内部知識を抽出し、外部ソースからバイリンガル情報を取得します。因果関係強化ジャッジ エージェントは検証を行います。
情報の正確性が確認され、Translator エージェントは洗練された情報を最終出力に組み込みます。
この自動化されたプロセスにより、翻訳中に重要な用語をより正確かつ一貫して処理できるようになります。
私たちの結果は、CRAT により、特に文脈依存の用語や新しい語彙の処理において、翻訳の精度が大幅に向上することを示しています。
要約(オリジナル)
Large language models (LLMs) have shown great promise in machine translation, but they still struggle with contextually dependent terms, such as new or domain-specific words. This leads to inconsistencies and errors that are difficult to address. Existing solutions often depend on manual identification of such terms, which is impractical given the complexity and evolving nature of language. While Retrieval-Augmented Generation (RAG) could provide some assistance, its application to translation is limited by issues such as hallucinations from information overload. In this paper, we propose CRAT, a novel multi-agent translation framework that leverages RAG and causality-enhanced self-reflection to address these challenges. This framework consists of several specialized agents: the Unknown Terms Identification agent detects unknown terms within the context, the Knowledge Graph (KG) Constructor agent extracts relevant internal knowledge about these terms and retrieves bilingual information from external sources, the Causality-enhanced Judge agent validates the accuracy of the information, and the Translator agent incorporates the refined information into the final output. This automated process allows for more precise and consistent handling of key terms during translation. Our results show that CRAT significantly improves translation accuracy, particularly in handling context-sensitive terms and emerging vocabulary.
arxiv情報
著者 | Meiqi Chen,Fandong Meng,Yingxue Zhang,Yan Zhang,Jie Zhou |
発行日 | 2024-10-28 14:29:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google