要約
基本的なコンピュータビジョンタスクとしてのオブジェクト検出は、ディープニューラルネットワークの出現により目覚ましい進歩を遂げました。
それにもかかわらず、さまざまな実世界のシナリオでの実際のアプリケーションに対する敵対的な攻撃に抵抗するために、オブジェクト検出器の敵対的な堅牢性を調査する研究はほとんどありません。
検出器は、目立たない摂動によって大きな課題に直面しており、クリーンな画像ではパフォーマンスが急激に低下し、敵対的な画像ではパフォーマンスが極端に低下します。
この作業では、オブジェクト検出における敵対的ロバストネスのモデルトレーニングを経験的に調査します。これは、クリーンな画像と敵対的画像の学習の競合に大きく起因します。
この問題を軽減するために、クリーンで敵対的な画像のモデル学習のために勾配を解きほぐすために、敵対者を意識した畳み込みに基づくロバスト検出器(RobustDet)を提案します。
RobustDetは、信頼性の高い堅牢性を確保するために、Adversarial Image Discriminator(AID)とConsistent Features with Reconstruction(CFR)も採用しています。
PASCAL VOCとMS-COCOに関する広範な実験は、私たちのモデルが効果的に勾配を解きほぐし、きれいな画像の検出能力を維持しながら検出の堅牢性を大幅に強化することを示しています。
要約(オリジナル)
Object detection, as a fundamental computer vision task, has achieved a remarkable progress with the emergence of deep neural networks. Nevertheless, few works explore the adversarial robustness of object detectors to resist adversarial attacks for practical applications in various real-world scenarios. Detectors have been greatly challenged by unnoticeable perturbation, with sharp performance drop on clean images and extremely poor performance on adversarial images. In this work, we empirically explore the model training for adversarial robustness in object detection, which greatly attributes to the conflict between learning clean images and adversarial images. To mitigate this issue, we propose a Robust Detector (RobustDet) based on adversarially-aware convolution to disentangle gradients for model learning on clean and adversarial images. RobustDet also employs the Adversarial Image Discriminator (AID) and Consistent Features with Reconstruction (CFR) to ensure a reliable robustness. Extensive experiments on PASCAL VOC and MS-COCO demonstrate that our model effectively disentangles gradients and significantly enhances the detection robustness with maintaining the detection ability on clean images.
arxiv情報
著者 | Ziyi Dong,Pengxu Wei,Liang Lin |
発行日 | 2022-07-13 13:59:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google