要約
ディープ ラーニング技術は、コンピューター支援の医用画像分析において優れたパフォーマンスを達成しましたが、依然として、目に見えない敵対的攻撃に対して脆弱であり、臨床現場で誤診される可能性があります。
反対に、近年では、深い医療診断システムにおけるこれらの調整された敵対的な例に対する防御の著しい進歩も目撃されています。
この博覧会では、アプリケーションシナリオの観点から、新しい分類法を使用して、医療画像分析のための敵対的攻撃と防御の最近の進歩に関する包括的な調査を提示します。
また、医用画像解析のためのさまざまなタイプの敵対的攻撃および防御方法について、統一された理論的フレームワークを提供します。
公正な比較のために、さまざまなシナリオでの敵対的トレーニングによって得られた、敵対的で堅牢な医療診断モデルの新しいベンチマークを確立します。
私たちの知る限り、これは敵対的に堅牢な医療診断モデルの徹底的な評価を提供する最初の調査論文です。
定性的および定量的な結果を分析することにより、この調査を終了し、医療画像分析システムにおける敵対的な攻撃と防御に関する現在の課題について詳細に説明し、将来の研究の方向性を明らかにします。
要約(オリジナル)
Deep learning techniques have achieved superior performance in computer-aided medical image analysis, yet they are still vulnerable to imperceptible adversarial attacks, resulting in potential misdiagnosis in clinical practice. Oppositely, recent years have also witnessed remarkable progress in defense against these tailored adversarial examples in deep medical diagnosis systems. In this exposition, we present a comprehensive survey on recent advances in adversarial attack and defense for medical image analysis with a novel taxonomy in terms of the application scenario. We also provide a unified theoretical framework for different types of adversarial attack and defense methods for medical image analysis. For a fair comparison, we establish a new benchmark for adversarially robust medical diagnosis models obtained by adversarial training under various scenarios. To the best of our knowledge, this is the first survey paper that provides a thorough evaluation of adversarially robust medical diagnosis models. By analyzing qualitative and quantitative results, we conclude this survey with a detailed discussion of current challenges for adversarial attack and defense in medical image analysis systems to shed light on future research directions.
arxiv情報
著者 | Junhao Dong,Junxi Chen,Xiaohua Xie,Jianhuang Lai,Hao Chen |
発行日 | 2023-03-24 16:38:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google