Hierarchical Self-Supervised Adversarial Training for Robust Vision Models in Histopathology

要約

敵対的な攻撃は、信頼性が不可欠なヘルスケアのような重要な分野の視界モデルに大きな課題をもたらします。
敵対的な訓練は自然な画像でよく研究されていますが、生物医学および顕微鏡データへの適用は依然として限られたままです。
既存の自己監視官能的訓練方法は、患者のスライドパッチ関係が貴重な識別シグナルを提供する組織病理学画像の階層構造を見落としています。
これに対処するために、階層的な自己監視官能訓練(HSAT)を提案します。これは、これらの特性を活用して、マルチレベルの対照学習を使用して敵対例を作成し、それを強化された堅牢性のために敵対的なトレーニングに統合します。
マルチクラスの組織病理学データセットOpenSRHでHSATを評価し、結果は、HSATが生物医学的および自然画像ドメインの両方から既存の方法を上回ることを示しています。
HSATは堅牢性を高め、ホワイトボックス設定で54.31%の平均ゲインを達成し、ベースラインの25〜30%に対して、ブラックボックス設定でパフォーマンスを3〜4%に減らします。
これらの結果は、このドメインでの敵対的なトレーニングのための新しいベンチマークを設定し、より堅牢なモデルへの道を開いています。
トレーニングと評価のためのコードは、https://github.com/hashmatshadab/hsatで入手できます。

要約(オリジナル)

Adversarial attacks pose significant challenges for vision models in critical fields like healthcare, where reliability is essential. Although adversarial training has been well studied in natural images, its application to biomedical and microscopy data remains limited. Existing self-supervised adversarial training methods overlook the hierarchical structure of histopathology images, where patient-slide-patch relationships provide valuable discriminative signals. To address this, we propose Hierarchical Self-Supervised Adversarial Training (HSAT), which exploits these properties to craft adversarial examples using multi-level contrastive learning and integrate it into adversarial training for enhanced robustness. We evaluate HSAT on multiclass histopathology dataset OpenSRH and the results show that HSAT outperforms existing methods from both biomedical and natural image domains. HSAT enhances robustness, achieving an average gain of 54.31% in the white-box setting and reducing performance drops to 3-4% in the black-box setting, compared to 25-30% for the baseline. These results set a new benchmark for adversarial training in this domain, paving the way for more robust models. Our Code for training and evaluation is available at https://github.com/HashmatShadab/HSAT.

arxiv情報

著者 Hashmat Shadab Malik,Shahina Kunhimon,Muzammal Naseer,Fahad Shahbaz Khan,Salman Khan
発行日 2025-03-13 17:59:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク