要約
最近、自己反映によって強化された大規模言語モデル (LLM) が、機械翻訳において有望なパフォーマンスを達成しています。
重要なアイデアは、人間のようなフィードバックを使用して翻訳を生成するように LLM を導くことです。
しかし、既存の自己反映手法には有効なフィードバック情報が不足しており、翻訳のパフォーマンスが制限されています。
これに対処するために、翻訳タスクの二重学習を活用して効果的なフィードバックを提供する DUAL-REFLECT フレームワークを導入します。これにより、モデルの自己反省能力が強化され、翻訳パフォーマンスが向上します。
この方法をさまざまな翻訳タスクに適用すると、特にリソースの少ない言語ペアを使用した翻訳タスクにおいて、翻訳の精度が向上し、曖昧さが解消されるという効果が証明されています。
要約(オリジナル)
Recently, large language models (LLMs) enhanced by self-reflection have achieved promising performance on machine translation. The key idea is guiding LLMs to generate translation with human-like feedback. However, existing self-reflection methods lack effective feedback information, limiting the translation performance. To address this, we introduce a DUAL-REFLECT framework, leveraging the dual learning of translation tasks to provide effective feedback, thereby enhancing the models’ self-reflective abilities and improving translation performance. The application of this method across various translation tasks has proven its effectiveness in improving translation accuracy and eliminating ambiguities, especially in translation tasks with low-resource language pairs.
arxiv情報
著者 | Andong Chen,Lianzhang Lou,Kehai Chen,Xuefeng Bai,Yang Xiang,Muyun Yang,Tiejun Zhao,Min Zhang |
発行日 | 2024-06-21 16:49:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google