要約
タイトル: DehazingネットワークのAdversarial Attack and Defense
要約:
– 単一画像のdehazingタスクに関する研究は広く探求されている。しかし、私たちの知る限り、トレーニングされたdehazingモデルの堅牢性について網羅的な研究は行われていない。
– したがって、dehazingネットワークが悪意のある攻撃に抵抗できるかどうかの証拠はない。
– 本論文では、既存のdehazingアルゴリズムの堅牢性を検証するために、第1勾配に基づく一群の攻撃手法を設計することに焦点を当てる。
– 画像dehazingタスクの一般的な目標を分析し、予測、ノイズ、マスク、グランド・トゥルース、入力攻撃の5つの攻撃手法を提案する。
– 対応する実験は、異なるスケールの6つのデータセットで実施される。
– さらに、悪意のある攻撃によって引き起こされる負の影響を軽減するために、adversarial trainingに基づく防御戦略が採用される。
– 要約すると、本論文は、画像dehazingエリアにおける新たなチャレンジングな問題、すなわちdehazingネットワークに対するadversarial attack (AADN)を定義する。
– コードは、https://github.com/guijiejie/AADNで入手可能。
要約(オリジナル)
The research on single image dehazing task has been widely explored. However, as far as we know, no comprehensive study has been conducted on the robustness of the well-trained dehazing models. Therefore, there is no evidence that the dehazing networks can resist malicious attacks. In this paper, we focus on designing a group of attack methods based on first order gradient to verify the robustness of the existing dehazing algorithms. By analyzing the general goal of image dehazing task, five attack methods are proposed, which are prediction, noise, mask, ground-truth and input attack. The corresponding experiments are conducted on six datasets with different scales. Further, the defense strategy based on adversarial training is adopted for reducing the negative effects caused by malicious attacks. In summary, this paper defines a new challenging problem for image dehazing area, which can be called as adversarial attack on dehazing networks (AADN). Code is available at https://github.com/guijiejie/AADN.
arxiv情報
著者 | Jie Gui,Xiaofeng Cong,Chengwei Peng,Yuan Yan Tang,James Tin-Yau Kwok |
発行日 | 2023-03-30 09:34:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI