Attacks in Adversarial Machine Learning: A Systematic Survey from the Life-cycle Perspective

要約

敵対的機械学習 (AML) は、人間との矛盾または予期しない予測を行う可能性がある機械学習の敵対的現象を研究します。
最近、トレーニング前、トレーニング中、推論の各段階で発生するバックドア攻撃など、機械学習システムのさまざまな段階で発生するこの敵対的現象を調査するためにいくつかのパラダイムが開発されました。
トレーニング、展開、推論後の段階で発生するウェイト攻撃。
推論段階で発生する敵対的攻撃。
しかし、これらの敵対的パラダイムは共通の目標を共有していますが、それらの発展はほぼ独立しており、AML の全体像はまだありません。
この研究では、AML コミュニティに統一された視点を提供し、この分野の全体的な進歩を体系的にレビューすることを目的としています。
まず AML に関する一般的な定義を提供し、次に既存の攻撃パラダイムをカバーするための統一された数学的フレームワークを提案します。
提案された統一フレームワークに従って、各パラダイムの既存の代表的な手法を体系的に分類およびレビューするための完全な分類法を構築します。
さらに、この統一フレームワークを使用すると、さまざまな攻撃パラダイム間のつながりや違いを簡単に把握できるため、将来の研究者がより高度な攻撃パラダイムを開発するきっかけになる可能性があります。
最後に、構築された分類法と敵対的機械学習の関連文献の閲覧を容易にするために、分類法と文献が継続的に表示される Web サイト \つまり \url{http://adversarial-ml.com} をさらに提供します。
更新しました。

要約(オリジナル)

Adversarial machine learning (AML) studies the adversarial phenomenon of machine learning, which may make inconsistent or unexpected predictions with humans. Some paradigms have been recently developed to explore this adversarial phenomenon occurring at different stages of a machine learning system, such as backdoor attack occurring at the pre-training, in-training and inference stage; weight attack occurring at the post-training, deployment and inference stage; adversarial attack occurring at the inference stage. However, although these adversarial paradigms share a common goal, their developments are almost independent, and there is still no big picture of AML. In this work, we aim to provide a unified perspective to the AML community to systematically review the overall progress of this field. We firstly provide a general definition about AML, and then propose a unified mathematical framework to covering existing attack paradigms. According to the proposed unified framework, we build a full taxonomy to systematically categorize and review existing representative methods for each paradigm. Besides, using this unified framework, it is easy to figure out the connections and differences among different attack paradigms, which may inspire future researchers to develop more advanced attack paradigms. Finally, to facilitate the viewing of the built taxonomy and the related literature in adversarial machine learning, we further provide a website, \ie, \url{http://adversarial-ml.com}, where the taxonomies and literature will be continuously updated.

arxiv情報

著者 Baoyuan Wu,Zihao Zhu,Li Liu,Qingshan Liu,Zhaofeng He,Siwei Lyu
発行日 2024-01-04 13:43:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク