要約
プロンプトを使用したニューラル機械翻訳 (NMT) システムの改善は、近年大幅な進歩を遂げています。
この研究では、プロンプトによるパフォーマンスを向上させるために、複数の知識、複数の種類の知識を NMT モデルに統合する方法に焦点を当てます。
私たちは、文、用語/語句、翻訳テンプレートなどの複数の種類の知識を NMT モデルに効果的に統合できる統一フレームワークを提案します。
NMT モデルのエンコーダーおよびデコーダーの入力のプレフィックス プロンプトとして複数の種類の知識を利用し、翻訳プロセスをガイドします。
このアプローチではモデル アーキテクチャを変更する必要がなく、再トレーニングすることなくドメイン固有の変換に効果的に適応します。
英語-中国語および英語-ドイツ語の翻訳に関する実験では、私たちのアプローチが強力なベースラインを大幅に上回り、高い翻訳品質と用語の一致精度を実現していることが実証されました。
要約(オリジナル)
Improving neural machine translation (NMT) systems with prompting has achieved significant progress in recent years. In this work, we focus on how to integrate multi-knowledge, multiple types of knowledge, into NMT models to enhance the performance with prompting. We propose a unified framework, which can integrate effectively multiple types of knowledge including sentences, terminologies/phrases and translation templates into NMT models. We utilize multiple types of knowledge as prefix-prompts of input for the encoder and decoder of NMT models to guide the translation process. The approach requires no changes to the model architecture and effectively adapts to domain-specific translation without retraining. The experiments on English-Chinese and English-German translation demonstrate that our approach significantly outperform strong baselines, achieving high translation quality and terminology match accuracy.
arxiv情報
著者 | Ke Wang,Jun Xie,Yuqi Zhang,Yu Zhao |
発行日 | 2023-12-08 02:55:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google