Look Closer to Your Enemy: Learning to Attack via Teacher-student Mimicking

要約

この論文では、敵の心 (VM) を読み取ることにより、人物再識別 (ReID) の現実的な攻撃サンプルを生成することを目的としています。
この論文では、敵対的なクエリ画像を生成するために、目立たず制御可能な新しいReID攻撃ベースライン、LCYEを提案します。
具体的には、LCYE はまず、プロキシ タスクで教師と生徒の記憶を模倣することにより、VM の知識を抽出します。
次に、この事前知識は、正確な敵対的誤解を招くために、VM が信じている本質的で現実的なものを伝える明示的な暗号として機能します。
さらに、LCYE の複数の対立するタスク フレームワークの恩恵を受けて、クロスドメイン適応、クロスモデル コンセンサス、オンライン学習プロセスなど、敵対的攻撃の観点から ReID モデルの解釈可能性と一般化をさらに調査します。
4 つの ReID ベンチマークでの広範な実験では、ホワイト ボックス、ブラック ボックス、およびターゲット攻撃において、私たちの方法が他の最先端の攻撃者よりも優れていることが示されています。
コードは https://gitfront.io/r/user-3704489/mKXusqDT4ffr/LCYE/ で入手できます。

要約(オリジナル)

This paper aims to generate realistic attack samples of person re-identification, ReID, by reading the enemy’s mind (VM). In this paper, we propose a novel inconspicuous and controllable ReID attack baseline, LCYE, to generate adversarial query images. Concretely, LCYE first distills VM’s knowledge via teacher-student memory mimicking in the proxy task. Then this knowledge prior acts as an explicit cipher conveying what is essential and realistic, believed by VM, for accurate adversarial misleading. Besides, benefiting from the multiple opposing task framework of LCYE, we further investigate the interpretability and generalization of ReID models from the view of the adversarial attack, including cross-domain adaption, cross-model consensus, and online learning process. Extensive experiments on four ReID benchmarks show that our method outperforms other state-of-the-art attackers with a large margin in white-box, black-box, and target attacks. Our code is now available at https://gitfront.io/r/user-3704489/mKXusqDT4ffr/LCYE/.

arxiv情報

著者 Mingjie Wang,Zhiqing Tang,Sirui Li,Dingwen Xiao
発行日 2022-11-17 13:39:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, I.5.1 パーマリンク