Exploring Human-Like Translation Strategy with Large Language Models

要約

タイトル: 大規模言語モデルを用いた人間らしい翻訳戦略の探求
要約:
– 大規模な言語モデル(LLM)は、一般的なシナリオで印象的な能力を発揮し、いくつかの側面では人間レベルの知能にも匹敵するレベルの適性を示しています。
– LLMの多くのスキルのうち、翻訳能力は多くの注目を集めています。従来の機械翻訳は、ソースとターゲットのマッピングに焦点を当てていましたが、LLMに基づく翻訳は高品質の翻訳を保証するために多くの準備段階を踏む人間の翻訳プロセスを模倣できる可能性があります。
– 本研究では、Multi-Aspect Prompting and Selection(MAPS)フレームワークを提案し、LLMが与えられたソーステキストを最初に分析し、翻訳に関連する3つの側面(キーワード、トピック、関連するデモンストレーション)を抽出することができるようにします。ノイズや役に立たない情報を除外するために、品質評定に基づいた選択メカニズムを使用します。
– 実験により、MAPSは最新のWMT22テストセットから8つの翻訳方向でtext-davinci-003とAlpacaに比べて、有意で一貫した改善をもたらすことが示されています。さらに、抽出された知識が翻訳の非現実化の問題を解決するために重要であることが分析されました。
– コードはhttps://github.com/zwhe99/MAPS-mtで利用可能です。

要約(オリジナル)

Large language models (LLMs) have demonstrated impressive capabilities in general scenarios, exhibiting a level of aptitude that approaches, in some aspects even surpasses, human-level intelligence. Among their numerous skills, the translation abilities of LLMs have received considerable attention. In contrast to traditional machine translation that focuses solely on source-target mapping, LLM-based translation can potentially mimic the human translation process that takes many preparatory steps to ensure high-quality translation. This work aims to explore this possibility by proposing the MAPS framework, which stands for Multi-Aspect Prompting and Selection. Specifically, we enable LLMs to first analyze the given source text and extract three aspects of translation-related knowledge: keywords, topics and relevant demonstrations to guide the translation process. To filter out the noisy and unhelpful knowledge, we employ a selection mechanism based on quality estimation. Experiments suggest that MAPS brings significant and consistent improvements over text-davinci-003 and Alpaca on eight translation directions from the latest WMT22 test sets. Our further analysis shows that the extracted knowledge is critical in resolving up to 59% of hallucination mistakes in translation. Code is available at https://github.com/zwhe99/MAPS-mt.

arxiv情報

著者 Zhiwei He,Tian Liang,Wenxiang Jiao,Zhuosheng Zhang,Yujiu Yang,Rui Wang,Zhaopeng Tu,Shuming Shi,Xing Wang
発行日 2023-05-06 19:03:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク