要約
データが十分に利用できない環境では、Few-shot Learning (FSL) メソッドが採用されています。
これは、注釈の取得に費用がかかる医療分野で特に見られます。
ディープ ニューラル ネットワークは、敵対的攻撃に対して脆弱であることが示されています。
FSL の場合、多数のトレーニング例が不足しているため、これはさらに深刻です。
この論文では、そのような攻撃がそれらを使用する臨床医による決定に深刻な影響を与える可能性がある医療分野で、少数ショットのセグメンテーションモデルを敵対的に堅牢にするためのフレームワークを提供します。
勾配ベースの敵対的攻撃に対する防御を提供する、新しい堅牢な少数ショットセグメンテーションフレームワークであるプロトタイプ神経常微分方程式 (PNODE) を提案します。
敵対的トレーニングなどの従来の敵対的防御メカニズムと比較して、フレームワークがより堅牢であることを示します。
敵対的トレーニングでは、トレーニング時間が増加し、トレーニング中に見られる敵対的例のタイプに応じて、限られたタイプの攻撃に対する堅牢性が示されます。
私たちが提案するフレームワークは、FGSM、PGD、SMIA などの一般的な敵対的攻撃にうまく一般化し、モデル パラメーターは既存の少数ショット セグメンテーション モデルに匹敵します。
アドホックな敵対的トレーニングを必要とせずにサポートとクエリセットを攻撃することにより、ドメイン内とクロスドメインの両方の設定で、公開されている 3 つの多臓器セグメンテーション データセットに対する提案されたアプローチの有効性を示します。
要約(オリジナル)
Few-shot Learning (FSL) methods are being adopted in settings where data is not abundantly available. This is especially seen in medical domains where the annotations are expensive to obtain. Deep Neural Networks have been shown to be vulnerable to adversarial attacks. This is even more severe in the case of FSL due to the lack of a large number of training examples. In this paper, we provide a framework to make few-shot segmentation models adversarially robust in the medical domain where such attacks can severely impact the decisions made by clinicians who use them. We propose a novel robust few-shot segmentation framework, Prototypical Neural Ordinary Differential Equation (PNODE), that provides defense against gradient-based adversarial attacks. We show that our framework is more robust compared to traditional adversarial defense mechanisms such as adversarial training. Adversarial training involves increased training time and shows robustness to limited types of attacks depending on the type of adversarial examples seen during training. Our proposed framework generalises well to common adversarial attacks like FGSM, PGD and SMIA while having the model parameters comparable to the existing few-shot segmentation models. We show the effectiveness of our proposed approach on three publicly available multi-organ segmentation datasets in both in-domain and cross-domain settings by attacking the support and query sets without the need for ad-hoc adversarial training.
arxiv情報
| 著者 | Prashant Pandey,Aleti Vardhan,Mustafa Chasmai,Tanuj Sur,Brejesh Lall |
| 発行日 | 2022-10-07 10:00:45+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google