Dynamic Perturbation-Adaptive Adversarial Training on Medical Image Classification

要約

最近、医用画像分類 (MIC) で目覚ましい成功が収められましたが、これは主に畳み込みニューラル ネットワーク (CNN) の広範な応用によるものです。
しかし、敵対的例 (AE) は生データとの知覚できないほどの類似性を示し、ネットワークの堅牢性について深刻な懸念を引き起こしました。
悪意のある AE に対応する敵対的トレーニング (AT) は、堅牢性を向上させる効果的なアプローチとして認識されていましたが、AT によって引き起こされるネットワークの汎化低下を克服するのは困難でした。
この論文では、ロバスト性を向上させながら高い一般化を確保するために、動的摂動適応型敵対的トレーニング (DPAAT) 手法を提案しました。この手法では、AT を動的学習環境に配置して、適応的なデータレベルの摂動を生成し、動的に更新される基準を提供します。
従来の AT 手法における固定摂動サイズの欠点と外部伝達への依存を処理するための損失情報の収集。
皮膚科 HAM10000 データセットの包括的なテストでは、DPAAT がより優れた堅牢性の向上と一般化の維持を達成しただけでなく、さまざまな CNN での平均精度と解釈可能性が大幅に向上したことが示され、MIC での一般的な敵対的トレーニング方法としての大きな可能性が示されました。

要約(オリジナル)

Remarkable successes were made in Medical Image Classification (MIC) recently, mainly due to wide applications of convolutional neural networks (CNNs). However, adversarial examples (AEs) exhibited imperceptible similarity with raw data, raising serious concerns on network robustness. Although adversarial training (AT), in responding to malevolent AEs, was recognized as an effective approach to improve robustness, it was challenging to overcome generalization decline of networks caused by the AT. In this paper, in order to reserve high generalization while improving robustness, we proposed a dynamic perturbation-adaptive adversarial training (DPAAT) method, which placed AT in a dynamic learning environment to generate adaptive data-level perturbations and provided a dynamically updated criterion by loss information collections to handle the disadvantage of fixed perturbation sizes in conventional AT methods and the dependence on external transference. Comprehensive testing on dermatology HAM10000 dataset showed that the DPAAT not only achieved better robustness improvement and generalization preservation but also significantly enhanced mean average precision and interpretability on various CNNs, indicating its great potential as a generic adversarial training method on the MIC.

arxiv情報

著者 Shuai Li,Xiaoguang Ma,Shancheng Jiang,Lu Meng
発行日 2024-03-11 15:16:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク