A Classification-Guided Approach for Adversarial Attacks against Neural Machine Translation

要約

ニューラル機械翻訳 (NMT) モデルは敵対的攻撃に対して脆弱であることがわかっており、慎重に作成された入力の摂動がターゲット モデルを誤解させる可能性があります。
このペーパーでは、分類器によって誘導される NMT システムに対する新しい敵対的攻撃フレームワークである ACT を紹介します。
私たちの攻撃では、敵対者は、NMT モデルによる翻訳がターゲット言語の元の翻訳とは異なるクラスに属する、意味を保持する敵対的な例を作成することを目的としています。
これまでの攻撃とは異なり、私たちの新しいアプローチは全体の意味を変更することで翻訳に大きな影響を与え、分類子によって異なるクラスが決定されます。
この攻撃に対する NMT モデルの堅牢性を評価するために、ターゲット NMT モデルの出力変換と分類子の出力ロジットを攻撃プロセスに組み込むことにより、既存のブラックボックス単語置換ベースの攻撃を強化することを提案します。
既存のターゲットを絞らない攻撃との比較を含むさまざまな設定での広範な実験により、提案された攻撃が出力翻訳のクラスを変更することにかなり成功し、翻訳により大きな影響を与えることが実証されました。
この新しいパラダイムは、従来研究されてきたような単なる翻訳品質ではなく、翻訳のクラスに焦点を当てることによって、NMT システムの脆弱性を示すことができます。

要約(オリジナル)

Neural Machine Translation (NMT) models have been shown to be vulnerable to adversarial attacks, wherein carefully crafted perturbations of the input can mislead the target model. In this paper, we introduce ACT, a novel adversarial attack framework against NMT systems guided by a classifier. In our attack, the adversary aims to craft meaning-preserving adversarial examples whose translations by the NMT model belong to a different class than the original translations in the target language. Unlike previous attacks, our new approach has a more substantial effect on the translation by altering the overall meaning, which leads to a different class determined by a classifier. To evaluate the robustness of NMT models to this attack, we propose enhancements to existing black-box word-replacement-based attacks by incorporating output translations of the target NMT model and the output logits of a classifier within the attack process. Extensive experiments in various settings, including a comparison with existing untargeted attacks, demonstrate that the proposed attack is considerably more successful in altering the class of the output translation and has more effect on the translation. This new paradigm can show the vulnerabilities of NMT systems by focusing on the class of translation rather than the mere translation quality as studied traditionally.

arxiv情報

著者 Sahar Sadrizadeh,Ljiljana Dolamic,Pascal Frossard
発行日 2023-08-29 12:12:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク