ParroT: Translating During Chat Using Large Language Models

要約

【タイトル】大規模言語モデルを用いたチャット翻訳におけるParroTフレームワーク

【要約】
– ChatGPTやGPT-4のような大規模言語モデルは、機械翻訳を含む様々な自然言語処理タスクで驚くべき能力を示している。
– しかし、これらのモデルは制限されたAPIを通じてのみアクセス可能であり、新しい研究や進歩の障害となる。
– そのため、ParroTフレームワークを提案し、オープンソースのLLMs(LLaMA-7b)と人手で書かれた翻訳・評価データに基づいてチャット中の翻訳能力を強化・規制することを目的とする。
– 具体的には、ParroTは翻訳データを指示に従う形式に再構築し、翻訳プロセスを規制するための追加要件を組み込む「ヒント」フィールドを導入する。
– さらに、翻訳指示、対比指示、エラーガイド指示の3つの指示タイプを提案する。
– FloresサブセットとWMT22テストセットでの実験から、翻訳指示によってバニラLLMsの翻訳性能が大幅に改善されることが示され、エラーガイド指示によってさらに改善されることができることがわかった。
– また、ParroTモデルは、Alpacaマルチタスクデータセットを使用した微調整でも一般的なタスクの能力が保持されることが示された。

要約(オリジナル)

Large language models (LLMs) like ChatGPT and GPT-4 have exhibited remarkable abilities on a wide range of natural language processing (NLP) tasks, including various machine translation abilities accomplished during chat. However, these models are only accessible through restricted APIs, which creates barriers to new research and advancements in the field. Therefore, we propose the $\mathbf{ParroT}$ framework to enhance and regulate the translation abilities during chat based on open-sourced LLMs (i.e., LLaMA-7b) and human written translation and evaluation data. Specifically, ParroT reformulates translation data into the instruction-following style, and introduces a ‘Hint’ field for incorporating extra requirements to regulate the translation process. Accordingly, we propose three instruction types for finetuning ParroT models, including translation instruction, contrastive instruction, and error-guided instruction. Experiments on Flores subsets and WMT22 test sets suggest that translation instruction improves the translation performance of vanilla LLMs significantly while error-guided instruction can lead to a further improvement, which demonstrates the importance of learning from low-quality translations annotated by human. Meanwhile, the ParroT models can also preserve the ability on general tasks with the Alpaca multi-task dataset involved in finetuning. Codes: https://github.com/wxjiao/ParroT

arxiv情報

著者 Wenxiang Jiao,Jen-tse Huang,Wenxuan Wang,Xing Wang,Shuming Shi,Zhaopeng Tu
発行日 2023-04-06 01:07:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク