Quality-Aware Translation Models: Efficient Generation and Quality Estimation in a Single Model

要約

Maximum-a-posteriori (MAP) デコードは、ニューラル機械翻訳 (NMT) モデルで最も広く使用されているデコード戦略です。
根底にある仮定は、モデルの確率は人間の判断とよく相関しており、より優れた翻訳にはモデルによってより高いスコアが割り当てられるということです。
ただし、この仮定が常に成り立つわけではなく、最小ベイズ リスク (MBR) や品質認識によって行われるように、メトリクスまたは品質推定信号に裏付けられた効用関数を最適化するデコードによって生成品質を向上できることが研究によって示されています。
デコード中。
これらのアプローチの主な欠点は、デコード中に効用関数を計算するために追加のモデルが必要となり、計算コストが大幅に増加することです。
この論文では、NMT モデル自体の出力の品質を推定するようにトレーニングすることで、NMT モデル自体の品質を認識させることを提案します。
MBR デコードにこのアプローチを使用すると、候補リストのサイズを大幅に削減でき、結果として 2 桁の速度向上が得られます。
私たちの方法を MAP デコードに適用すると、品質再ランキング アプローチと同等かそれ以上の品質向上が得られますが、効率はシングル パス デコードと同じです。

要約(オリジナル)

Maximum-a-posteriori (MAP) decoding is the most widely used decoding strategy for neural machine translation (NMT) models. The underlying assumption is that model probability correlates well with human judgment, with better translations getting assigned a higher score by the model. However, research has shown that this assumption does not always hold, and generation quality can be improved by decoding to optimize a utility function backed by a metric or quality-estimation signal, as is done by Minimum Bayes Risk (MBR) or quality-aware decoding. The main disadvantage of these approaches is that they require an additional model to calculate the utility function during decoding, significantly increasing the computational cost. In this paper, we propose to make the NMT models themselves quality-aware by training them to estimate the quality of their own output. Using this approach for MBR decoding we can drastically reduce the size of the candidate list, resulting in a speed-up of two-orders of magnitude. When applying our method to MAP decoding we obtain quality gains similar or even superior to quality reranking approaches, but with the efficiency of single pass decoding.

arxiv情報

著者 Christian Tomani,David Vilar,Markus Freitag,Colin Cherry,Subhajit Naskar,Mara Finkelstein,Xavier Garcia,Daniel Cremers
発行日 2024-07-11 12:25:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク