Towards Interpreting Vulnerability of Multi-Instance Learning via Customized and Universal Adversarial Perturbations

要約

マルチインスタンス学習 (MIL) は、複雑なデータを処理するための優れたパラダイムであり、画像分類、ビデオ異常検出など、多くの分野で目覚ましい成果を上げています。
各データ サンプルは、ラベル付けされていない複数のインスタンスを含むバッグと呼ばれ、監視対象の情報はバッグ レベルでのみ提供されます。
ただし、MIL学習者の安全性は懸念されます。いくつかの敵対的な摂動を導入することで、MIL学習者を大幅にだますことができるからです。
これは、ユーザーが目的の画像にアクセスできず、犯罪者が監視カメラをだまそうとしている場合など、場合によっては致命的となる可能性があります。
この論文では、MIL メソッドの脆弱性を解釈するために 2 つの敵対的摂動を設計します。
最初の方法は、元の分類領域から外れる目的で、バッグ固有の摂動 (カスタマイズされたものと呼ばれます) を効率的に生成できます。
2 番目の方法は、最初の方法に基づいて、特定のデータ セット内のすべてのバッグに影響を与え、ある程度の一般化可能性を取得することを目的とした、画像に依存しない摂動 (ユニバーサルと呼ばれる) を調査することによって構築されます。
これら 2 つの摂動のパフォーマンスを検証するためにさまざまな実験を行い、結果は、どちらも MIL 学習者を効果的にだますことができることを示しています。
さらに、敵対的摂動の影響を軽減するための簡単な戦略を提案します。
ソース コードは、https://github.com/InkiInki/MI-UAP で入手できます。

要約(オリジナル)

Multi-instance learning (MIL) is a great paradigm for dealing with complex data and has achieved impressive achievements in a number of fields, including image classification, video anomaly detection, and far more. Each data sample is referred to as a bag containing several unlabeled instances, and the supervised information is only provided at the bag-level. The safety of MIL learners is concerning, though, as we can greatly fool them by introducing a few adversarial perturbations. This can be fatal in some cases, such as when users are unable to access desired images and criminals are attempting to trick surveillance cameras. In this paper, we design two adversarial perturbations to interpret the vulnerability of MIL methods. The first method can efficiently generate the bag-specific perturbation (called customized) with the aim of outsiding it from its original classification region. The second method builds on the first one by investigating the image-agnostic perturbation (called universal) that aims to affect all bags in a given data set and obtains some generalizability. We conduct various experiments to verify the performance of these two perturbations, and the results show that both of them can effectively fool MIL learners. We additionally propose a simple strategy to lessen the effects of adversarial perturbations. Source codes are available at https://github.com/InkiInki/MI-UAP.

arxiv情報

著者 Yu-Xuan Zhang,Hua Meng,Xuemei Cao,Zhengchun Zhou,Mei Yang
発行日 2022-11-30 15:29:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク