Integrating Pre-trained Language Model into Neural Machine Translation

要約

ニューラル機械翻訳 (NMT) は、広範な研究開発を通じて、自然言語処理における重要なテクノロジになりました。
ただし、高品質のバイリンガル言語ペア データの欠如が、NMT のパフォーマンスを向上させる上で依然として大きな課題となっています。
最近の研究では、この問題に対処するために、事前トレーニングされた言語モデル (PLM) からのコンテキスト情報の使用が検討されています。
しかし、PLM モデルと NMT モデル間の非互換性の問題は未解決のままです。
この研究では、特定された問題を克服するための PLM 統合 NMT (PiNMT) モデルを提案します。
PiNMT モデルは、PLM マルチレイヤー コンバーター、エンベディング フュージョン、コサイン アライメントという 3 つの重要なコンポーネントで構成されており、それぞれが効果的な PLM 情報を NMT に提供する上で重要な役割を果たします。
さらに、このホワイトペーパーでは、2 つのトレーニング戦略、個別学習率とデュアル ステップ トレーニングも紹介します。
提案された PiNMT モデルとトレーニング戦略を実装することにより、IWSLT’14 En$\leftrightarrow$De データセットで最先端のパフォーマンスを達成しました。
この研究の成果は、PLM と NMT を効率的に統合して非互換性を克服し、パフォーマンスを向上させるための新しいアプローチを実証するものであるため、注目に値します。

要約(オリジナル)

Neural Machine Translation (NMT) has become a significant technology in natural language processing through extensive research and development. However, the deficiency of high-quality bilingual language pair data still poses a major challenge to improving NMT performance. Recent studies are exploring the use of contextual information from pre-trained language model (PLM) to address this problem. Yet, the issue of incompatibility between PLM and NMT model remains unresolved. This study proposes a PLM-integrated NMT (PiNMT) model to overcome the identified problems. The PiNMT model consists of three critical components, PLM Multi Layer Converter, Embedding Fusion, and Cosine Alignment, each playing a vital role in providing effective PLM information to NMT. Furthermore, two training strategies, Separate Learning Rates and Dual Step Training, are also introduced in this paper. By implementing the proposed PiNMT model and training strategy, we achieved state-of-the-art performance on the IWSLT’14 En$\leftrightarrow$De dataset. This study’s outcomes are noteworthy as they demonstrate a novel approach for efficiently integrating PLM with NMT to overcome incompatibility and enhance performance.

arxiv情報

著者 Soon-Jae Hwang,Chang-Sung Jeong
発行日 2023-11-13 16:12:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク