要約
ディープ ニューラル ネットワーク (DNN) は、リモート センシング (RS) 画像の解釈に広く応用されています。
ただし、DNN はさまざまな種類のノイズ、特に敵対的なノイズに対して脆弱であることが以前の研究で実証されています。
驚くべきことに、RS タスクの堅牢性に関する包括的な研究が不足しているため、RS における画像分類と物体検出の堅牢性に関する徹底的な調査とベンチマークの実施が求められています。
私たちの知る限り、この研究は、RS タスクにおける自然な堅牢性と敵対的な堅牢性の両方についての最初の包括的な調査を表しています。
具体的には、自然ノイズと敵対的ノイズを含むデータセットを厳選し、公開しました。
これらのデータセットは、DNN ベースのモデルの堅牢性を評価するための貴重なリソースとして機能します。
モデルの堅牢性を包括的に評価するために、広範囲の主流の手法を網羅する多数の異なる分類器と検出器を使用して綿密な実験を実施しました。
厳密な評価を通じて、私たちは洞察力に富んだ興味深い発見を明らかにしました。これは、敵対的なノイズの作成とモデルのトレーニングとの関係に光を当て、さまざまなモデルの感受性と限界についてのより深い理解をもたらし、より回復力と堅牢性の高いモデルの開発のためのガイダンスを提供します。
モデル
要約(オリジナル)
Deep neural networks (DNNs) have found widespread applications in interpreting remote sensing (RS) imagery. However, it has been demonstrated in previous works that DNNs are vulnerable to different types of noises, particularly adversarial noises. Surprisingly, there has been a lack of comprehensive studies on the robustness of RS tasks, prompting us to undertake a thorough survey and benchmark on the robustness of image classification and object detection in RS. To our best knowledge, this study represents the first comprehensive examination of both natural robustness and adversarial robustness in RS tasks. Specifically, we have curated and made publicly available datasets that contain natural and adversarial noises. These datasets serve as valuable resources for evaluating the robustness of DNNs-based models. To provide a comprehensive assessment of model robustness, we conducted meticulous experiments with numerous different classifiers and detectors, encompassing a wide range of mainstream methods. Through rigorous evaluation, we have uncovered insightful and intriguing findings, which shed light on the relationship between adversarial noise crafting and model training, yielding a deeper understanding of the susceptibility and limitations of various models, and providing guidance for the development of more resilient and robust models
arxiv情報
著者 | Shaohui Mei,Jiawei Lian,Xiaofei Wang,Yuru Su,Mingyang Ma,Lap-Pui Chau |
発行日 | 2023-09-15 14:00:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google