Enhancing Supervised Learning with Contrastive Markings in Neural Machine Translation Training

要約

ニューラル機械翻訳 (NMT) の教師あり学習は、通常、モデル自身の以前の予測ではなく、参照トークンがモデルの予測における条件付けコンテキストを構成する教師強制パラダイムに従います。
翻訳空間における探索の不足を軽減するために、対照的なマーキング目標による標準の最尤推定の単純な拡張を提案します。
追加のトレーニング信号は、システム仮説を参照と比較することによって参照翻訳から自動的に抽出され、正しい/間違ったトークンの重み付けを増減するために使用されます。
提案された新しいトレーニング手順では、エポックごとにトレーニング セットに対して 1 つの追加の変換パスが必要ですが、標準の推論セットアップは変更されません。
対照的なマーキングを使用したトレーニングは教師あり学習に加えて改善をもたらすことを示し、対照的なマーキングが元の仮説に対する人的エラーの修正を示すポストイットから学習する場合に特に役立ちます。
コードは公開されています。

要約(オリジナル)

Supervised learning in Neural Machine Translation (NMT) typically follows a teacher forcing paradigm where reference tokens constitute the conditioning context in the model’s prediction, instead of its own previous predictions. In order to alleviate this lack of exploration in the space of translations, we present a simple extension of standard maximum likelihood estimation by a contrastive marking objective. The additional training signals are extracted automatically from reference translations by comparing the system hypothesis against the reference, and used for up/down-weighting correct/incorrect tokens. The proposed new training procedure requires one additional translation pass over the training set per epoch, and does not alter the standard inference setup. We show that training with contrastive markings yields improvements on top of supervised learning, and is especially useful when learning from postedits where contrastive markings indicate human error corrections to the original hypotheses. Code is publicly released.

arxiv情報

著者 Nathaniel Berger,Miriam Exel,Matthias Huck,Stefan Riezler
発行日 2023-07-17 11:56:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク