要約
敵対的トレーニングは、敵対的な例に対して画像検索システムを防御する上でかなりのパフォーマンスを達成しました。
しかし、既存の研究には依然として、モデルの崩壊と弱い敵対者という 2 つの大きな制限があります。
この論文は、トリプレット デカップリング (TRIDE) を使用した崩壊指向 (COLO) 敵対的トレーニングを提案することで、これら 2 つの制限に対処します。
具体的には、COLO は新しい崩壊メトリックを使用して摂動の更新方向を時間的に方向付けることでモデルの崩壊を防ぎますが、TRIDE は摂動の更新ターゲットをアンカーとトリプレットの 2 つの候補に空間的に分離することで強力な敵対者を生成します。
実験結果は、当社の COLO-TRIDE が 10 の堅牢性指標および 3 つの一般的なデータセットにわたって、現在の最先端技術を平均して 7% 上回るパフォーマンスを示していることを示しています。
さらに、画像検索で一般的に使用される堅牢性指標の公平性の限界を特定し、より意味のある堅牢性評価のための新しい指標を提案します。
コードは GitHub で公開されます。
要約(オリジナル)
Adversarial training has achieved substantial performance in defending image retrieval systems against adversarial examples. However, existing studies still suffer from two major limitations: model collapse and weak adversary. This paper addresses these two limitations by proposing collapse-oriented (COLO) adversarial training with triplet decoupling (TRIDE). Specifically, COLO prevents model collapse by temporally orienting the perturbation update direction with a new collapse metric, while TRIDE yields a strong adversary by spatially decoupling the update targets of perturbation into the anchor and the two candidates of a triplet. Experimental results demonstrate that our COLO-TRIDE outperforms the current state of the art by 7% on average over 10 robustness metrics and across 3 popular datasets. In addition, we identify the fairness limitations of commonly used robustness metrics in image retrieval and propose a new metric for more meaningful robustness evaluation. Codes will be made publicly available on GitHub.
arxiv情報
著者 | Qiwei Tian,Chenhao Lin,Qian Li,Zhengyu Zhao,Chao Shen |
発行日 | 2023-12-12 15:33:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google