Towards Example-Based NMT with Multi-Levenshtein Transformers

要約

検索拡張機械翻訳 (RAMT) への注目が高まっています。
これは、RAMT が翻訳メトリックを改善するだけでなく、何らかの形式のドメイン適応も実装すると想定されているためです。
この寄稿では、RAMT のもう 1 つの顕著な特性、つまり、ユーザーが翻訳の決定に貢献した例に戻ることができるようにすることで、翻訳の決定をより透明にする能力について研究します。
このため、私たちは透明性を高めることを目的とした新しいアーキテクチャを提案します。
このモデルは、レーベンシュタイン変換器の検索拡張バージョンを適応させ、メモリ内で見つかった複数のあいまい一致を同時に編集できるようにします。
マルチウェイ アライメント アルゴリズムと模倣学習に基づいて、このモデルでトレーニングと推論を実行する方法について説明します。
私たちの実験では、いくつかの例を編集すると翻訳スコアにプラスの影響があり、特に既存のインスタンスからコピーされるターゲット スパンの数が増加することがわかりました。

要約(オリジナル)

Retrieval-Augmented Machine Translation (RAMT) is attracting growing attention. This is because RAMT not only improves translation metrics, but is also assumed to implement some form of domain adaptation. In this contribution, we study another salient trait of RAMT, its ability to make translation decisions more transparent by allowing users to go back to examples that contributed to these decisions. For this, we propose a novel architecture aiming to increase this transparency. This model adapts a retrieval-augmented version of the Levenshtein Transformer and makes it amenable to simultaneously edit multiple fuzzy matches found in memory. We discuss how to perform training and inference in this model, based on multi-way alignment algorithms and imitation learning. Our experiments show that editing several examples positively impacts translation scores, notably increasing the number of target spans that are copied from existing instances.

arxiv情報

著者 Maxime Bouthors,Josep Crego,François Yvon
発行日 2023-10-13 09:18:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク