On Search Strategies for Document-Level Neural Machine Translation

要約

文レベルのシステムと比較して、ドキュメントレベルのニューラル機械翻訳 (NMT) モデルは、ドキュメント全体でより一貫した出力を生成し、入力内の曖昧さをより適切に解決できます。
ドキュメントレベルの NMT については多くの研究が行われており、そのほとんどは、追加のコンテキスト入力に適切に対応するためにモデル アーキテクチャまたはトレーニング戦略を変更することに重点を置いています。
一方で、ほとんどの作品では、学習済みモデルを使用して検索をどのように実行するかという問題はほとんど議論されず、場合によってはまったく言及されません。
この研究では、デコード時にコンテキスト認識型の翻訳モデルを最適に利用する方法についての質問に答えることを目的としています。
最も一般的なドキュメントレベルの NMT アプローチから始めて、文献からのものや私たちが提案したものなど、さまざまな復号化スキームを比較します。
比較では、標準的な自動メトリクスと、3 つの標準的な文書レベルの翻訳ベンチマークにおける特定の言語現象の両方を使用しています。
私たちは、最も一般的に使用されるデコード戦略は互いに同様に機能し、より高品質のコンテキスト情報が翻訳をさらに改善する可能性があることを発見しました。

要約(オリジナル)

Compared to sentence-level systems, document-level neural machine translation (NMT) models produce a more consistent output across a document and are able to better resolve ambiguities within the input. There are many works on document-level NMT, mostly focusing on modifying the model architecture or training strategy to better accommodate the additional context-input. On the other hand, in most works, the question on how to perform search with the trained model is scarcely discussed, sometimes not mentioned at all. In this work, we aim to answer the question how to best utilize a context-aware translation model in decoding. We start with the most popular document-level NMT approach and compare different decoding schemes, some from the literature and others proposed by us. In the comparison, we are using both, standard automatic metrics, as well as specific linguistic phenomena on three standard document-level translation benchmarks. We find that most commonly used decoding strategies perform similar to each other and that higher quality context information has the potential to further improve the translation.

arxiv情報

著者 Christian Herold,Hermann Ney
発行日 2023-06-08 11:30:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク