Easy Guided Decoding in Providing Suggestions for Interactive Machine Translation

要約

近年、機械翻訳技術は大きな進歩を遂げましたが、エラーのない翻訳結果を保証するものではありません。コンピュータ支援翻訳の場面では、人間の翻訳者が機械翻訳の誤りを修正するポストエディットを行います。そのため、機械翻訳に人間の手を加えることなく、機械が自動的に翻訳結果を修正する対話型翻訳が研究されています。翻訳サジェスチョン(TS)は、翻訳者を支援する対話型モードとして、翻訳者が選択した特定の不正確な単語やフレーズに対して、機械が代替案を生成することを要求します。本論文では、ニューラル機械翻訳(NMT)のパラメータ化された目的関数を利用し、新たな制約付き復号アルゴリズムであるPrefix Suffix Guided Decoding(PSGD)を提案し、追加の訓練なしでTS問題に対処する。PSGDは、最新の字句制約付き復号化手法と比較して、WeTSとWMT 2022 Translation Suggestionデータセットにおいて、それぞれ平均10.87$ BLEUと8.62$ BLEUの翻訳品質を改善し、WMT翻訳データセットでは平均63.4%の復号時間オーバーヘッドを削減することができました。さらに、TSベンチマークデータセットの両方において、TSアノテーションデータで訓練された他の教師あり学習システムよりも優れています。

要約(オリジナル)

Machine translation technology has made great progress in recent years, but it cannot guarantee error free results. Human translators perform post editing on machine translations to correct errors in the scene of computer aided translation. In favor of expediting the post editing process, many works have investigated machine translation in interactive modes, in which machines can automatically refine the rest of translations constrained by human’s edits. Translation Suggestion (TS), as an interactive mode to assist human translators, requires machines to generate alternatives for specific incorrect words or phrases selected by human translators. In this paper, we utilize the parameterized objective function of neural machine translation (NMT) and propose a novel constrained decoding algorithm, namely Prefix Suffix Guided Decoding (PSGD), to deal with the TS problem without additional training. Compared to the state of the art lexically constrained decoding method, PSGD improves translation quality by an average of $10.87$ BLEU and $8.62$ BLEU on the WeTS and the WMT 2022 Translation Suggestion datasets, respectively, and reduces decoding time overhead by an average of 63.4% tested on the WMT translation datasets. Furthermore, on both of the TS benchmark datasets, it is superior to other supervised learning systems trained with TS annotated data.

arxiv情報

著者 Ke Wang,Xin Ge,Jiayi Wang,Yu Zhao,Yuqi Zhang
発行日 2023-06-02 08:25:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク