Targeted Adversarial Attacks against Neural Machine Translation

要約

ニューラル機械翻訳 (NMT) システムは、さまざまなアプリケーションで使用されています。
ただし、敵対的攻撃として知られる、入力の非常に小さな摂動に対して脆弱であることが示されています。
この論文では、NMT モデルに対する新しい標的型敵対的攻撃を提案します。
特に、私たちの目標は、元の文とソースドメインの摂動された文との類似性を維持しながら、事前定義されたターゲットキーワードを敵対文の翻訳に挿入することです。
この目的のために、敵対的損失項と類似項を含む最適化問題を提案します。
埋め込み空間で勾配射影を使用して、敵対的な文を作成します。
実験結果は、成功率と翻訳品質の低下の点で、NMT モデルに対する他の標的型敵対的攻撃である Seq2Sick よりも優れていることを示しています。
私たちの攻撃は、元の文との類似性を維持したまま、75% 以上の文の翻訳にキーワードを挿入することに成功しました。

要約(オリジナル)

Neural Machine Translation (NMT) systems are used in various applications. However, it has been shown that they are vulnerable to very small perturbations of their inputs, known as adversarial attacks. In this paper, we propose a new targeted adversarial attack against NMT models. In particular, our goal is to insert a predefined target keyword into the translation of the adversarial sentence while maintaining similarity between the original sentence and the perturbed one in the source domain. To this aim, we propose an optimization problem, including an adversarial loss term and a similarity term. We use gradient projection in the embedding space to craft an adversarial sentence. Experimental results show that our attack outperforms Seq2Sick, the other targeted adversarial attack against NMT models, in terms of success rate and decrease in translation quality. Our attack succeeds in inserting a keyword into the translation for more than 75% of sentences while similarity with the original sentence stays preserved.

arxiv情報

著者 Sahar Sadrizadeh,AmirHossein Dabiri Aghdam,Ljiljana Dolamic,Pascal Frossard
発行日 2023-03-02 08:43:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CR, cs.LG パーマリンク