Benign Adversarial Attack: Tricking Models for Goodness

要約

機械学習は多くの分野で応用されているにもかかわらず、敵対的な事例に対する脆弱性といった悪名高い問題に悩まされている。本論文では、敵対的な攻撃と防御の間の駆け引きに陥ることなく、敵対的な事例を考慮し、それを良性のアプリケーションに利用できるかどうかを検討するための代替的な視点を提供する。我々はまず、敵対的事例を、非意味的特徴の採用に関する人間とモデルの不一致に起因すると考える。古典的な機械学習メカニズムではほとんど無視されているが、非意味的特徴は、(1)モデルに排他的、(2)推論に重要、(3)特徴として利用可能、という三つの興味深い特徴を有している。本論文では、敵対的チューリングテスト、悪意あるモデルの適用拒否、敵対的データ拡張の3つの方向から、敵対的事例を善意に利用する良性敵対的攻撃という新しいアイデアを提示する。それぞれの方向性は、動機の説明、正当性の分析、そしてその可能性を示すプロトタイプアプリケーションで位置づけられる。

要約(オリジナル)

In spite of the successful application in many fields, machine learning models today suffer from notorious problems like vulnerability to adversarial examples. Beyond falling into the cat-and-mouse game between adversarial attack and defense, this paper provides alternative perspective to consider adversarial example and explore whether we can exploit it in benign applications. We first attribute adversarial example to the human-model disparity on employing non-semantic features. While largely ignored in classical machine learning mechanisms, non-semantic feature enjoys three interesting characteristics as (1) exclusive to model, (2) critical to affect inference, and (3) utilizable as features. Inspired by this, we present brave new idea of benign adversarial attack to exploit adversarial examples for goodness in three directions: (1) adversarial Turing test, (2) rejecting malicious model application, and (3) adversarial data augmentation. Each direction is positioned with motivation elaboration, justification analysis and prototype applications to showcase its potential.

arxiv情報

著者 Jitao Sang,Xian Zhao,Jiaming Zhang,Zhiyu Lin
発行日 2022-07-05 14:25:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV パーマリンク