TIM: Teaching Large Language Models to Translate with Comparison

要約

オープンソースの大規模言語モデル (LLM) は、命令チューニングによるさまざまなタスクにおいて顕著な効果を実証しています。
ただし、これらのモデルは、翻訳などのより専門的な知識を必要とするタスクで苦労することがあります。
このような欠陥が生じる理由の 1 つは、命令チューニングの目的が、タスク固有の要件に制約されることなく、特定の命令から続く流暢で一貫したテキストを生成することであるということです。
さらに、低品質のトレーニング データを使用して小規模な LLM を調整することは、より困難になる可能性があります。
この問題に対処するために、LLM に翻訳の学習を教えるために例を使用する新しいフレームワークを提案します。
私たちのアプローチには、正しい翻訳と誤った翻訳の例をモデルに提示し、モデルの学習をガイドするために優先損失を使用することが含まれます。
WMT2022 テスト セットでメソッドを評価し、既存のメソッドよりも優れていることを示します。
私たちの調査結果は、翻訳タスク用の LLM の微調整に関する新しい視点を提供し、高品質の翻訳を生成するための有望なソリューションを提供します。
詳細については、Github を参照してください: https://github.com/lemon0830/TIM。

要約(オリジナル)

Open-sourced large language models (LLMs) have demonstrated remarkable efficacy in various tasks with instruction tuning. However, these models can sometimes struggle with tasks that require more specialized knowledge such as translation. One possible reason for such deficiency is that instruction tuning aims to generate fluent and coherent text that continues from a given instruction without being constrained by any task-specific requirements. Moreover, it can be more challenging for tuning smaller LLMs with lower-quality training data. To address this issue, we propose a novel framework using examples in comparison to teach LLMs to learn translation. Our approach involves presenting the model with examples of correct and incorrect translations and using a preference loss to guide the model’s learning. We evaluate our method on WMT2022 test sets and show that it outperforms existing methods. Our findings offer a new perspective on fine-tuning LLMs for translation tasks and provide a promising solution for generating high-quality translations. Please refer to Github for more details: https://github.com/lemon0830/TIM.

arxiv情報

著者 Jiali Zeng,Fandong Meng,Yongjing Yin,Jie Zhou
発行日 2024-01-22 07:40:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク