On-the-Fly Fusion of Large Language Models and Machine Translation

要約

機械翻訳モデルとLLMのオンザフライ・アンサンブルを提案する。4つの言語ペア(双方向)に対して、データ量を変えながら実験を行った。その結果、翻訳時に若干弱いLLMがNMTモデルの翻訳を改善し、LLMとのアンサンブルは2つの強いMTモデルのアンサンブルよりも良い翻訳を生成できることがわかった。また、LLMとのアンサンブルは、より強力な2つのMTモデルとのアンサンブルよりも優れた翻訳を生成することができる。われわれの手法を、文脈学習や翻訳文脈など、LLMプロンプトの様々な手法と組み合わせる。

要約(オリジナル)

We propose the on-the-fly ensembling of a machine translation model with an LLM, prompted on the same task and input. We perform experiments on 4 language pairs (both directions) with varying data amounts. We find that a slightly weaker-at-translation LLM can improve translations of a NMT model, and ensembling with an LLM can produce better translations than ensembling two stronger MT models. We combine our method with various techniques from LLM prompting, such as in context learning and translation context.

arxiv情報

著者 Hieu Hoang,Huda Khayrallah,Marcin Junczys-Dowmunt
発行日 2024-05-06 17:13:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク