要約
ニューラル ネットワークは、悪名高いほど入力の小さな摂動に敏感であり、敵対的な攻撃に対して脆弱です。
このプロジェクトでは、敵対者の攻撃から防御するための精製手法としてのノイズ除去拡散確率モデル (DDPM) のパフォーマンスを評価します。
これは、拡散モデルの逆のプロセスを通じてノイズを除去する前に、敵対的な例にノイズを追加することによって機能します。
リンパ節切片の組織病理学的スキャンの PatchCamelyon データ セットでアプローチを評価し、元のモデルの精度の最大 88\% までロバストな精度が改善されていることを発見しました。
プロジェクト コードは https://github.com/ankile/Adversarial-Diffusion にあります。
要約(オリジナル)
Neural Networks are infamously sensitive to small perturbations in their inputs, making them vulnerable to adversarial attacks. This project evaluates the performance of Denoising Diffusion Probabilistic Models (DDPM) as a purification technique to defend against adversarial attacks. This works by adding noise to an adversarial example before removing it through the reverse process of the diffusion model. We evaluate the approach on the PatchCamelyon data set for histopathologic scans of lymph node sections and find an improvement of the robust accuracy by up to 88\% of the original model’s accuracy, constituting a considerable improvement over the vanilla model and our baselines. The project code is located at https://github.com/ankile/Adversarial-Diffusion.
arxiv情報
著者 | Lars Lien Ankile,Anna Midgley,Sebastian Weisshaar |
発行日 | 2023-01-17 13:27:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google