Look Closer to Your Enemy: Learning to Attack via Teacher-student Mimicking

要約

この論文は、敵の心(VM)を読み取ることにより、人の再識別、ReIDの現実的な攻撃サンプルを生成することを目的としています。
この論文では、敵対的なクエリ画像を生成するために、目立たない制御可能な新しいReID攻撃ベースラインLCYEを提案します。
具体的には、LCYEはまず、プロキシタスクで模倣する教師と生徒のメモリを介してVMの知識を抽出します。
次に、この知識は、VMによって信じられている、正確な敵対的誤解を招くために不可欠で現実的なものを伝える明示的な暗号として機能します。
さらに、LCYEの複数の対立するタスクフレームワークの恩恵を受けて、クロスドメイン適応、クロスモデルコンセンサス、オンライン学習プロセスなどの敵対的攻撃の観点から、ReIDモデルの解釈可能性と一般化をさらに調査します。
4つのReIDベンチマークでの広範な実験は、ホワイトボックス、ブラックボックス、およびターゲット攻撃で大きなマージンを持って、私たちの方法が他の最先端の攻撃者よりも優れていることを示しています。
コードはhttps://gitfront.io/r/user-3704489/mKXusqDT4ffr/LCYE/で入手できます。

要約(オリジナル)

This paper aims to generate realistic attack samples of person re-identification, ReID, by reading the enemy’s mind (VM). In this paper, we propose a novel inconspicuous and controllable ReID attack baseline, LCYE, to generate adversarial query images. Concretely, LCYE first distills VM’s knowledge via teacher-student memory mimicking in the proxy task. Then this knowledge prior acts as an explicit cipher conveying what is essential and realistic, believed by VM, for accurate adversarial misleading. Besides, benefiting from the multiple opposing task framework of LCYE, we further investigate the interpretability and generalization of ReID models from the view of the adversarial attack, including cross-domain adaption, cross-model consensus, and online learning process. Extensive experiments on four ReID benchmarks show that our method outperforms other state-of-the-art attackers with a large margin in white-box, black-box, and target attacks. Our code is now available at https://gitfront.io/r/user-3704489/mKXusqDT4ffr/LCYE/.

arxiv情報

著者 Mingejie Wang,Zhiqing Tang,Sirui Li,Dingwen Xiao
発行日 2022-07-28 10:50:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, I.5.1 パーマリンク