要約
ディープラーニング(DL)手法は、アンダーサンプリングされた$k$空間データからのMR画像再構成などの非負荷逆問題の解決に有望な結果を示している。しかし、これらのアプローチは、現在のところ、再構成品質に対する保証がなく、そのようなアルゴリズムの信頼性は十分に理解されていないに過ぎない。敵対的攻撃は、DLベースの再構成アルゴリズムの起こりうる故障モードと最悪の場合の性能を理解するための貴重なツールである。本論文では、マルチコイル$k$空間測定に対する敵対的攻撃について述べ、最近提案されたE2E-VarNetとより単純なUNetベースのモデルでそれらを評価する。先行研究とは対照的に、攻撃は診断に関連する領域を特に変更することを目標としている。2つの現実的な攻撃モデル(敵対的な$k$空間ノイズと敵対的な回転)を用いて、現在の最新鋭のDLベース再構成アルゴリズムが、関連する診断情報が失われる可能性がある程度まで、実際にそのような摂動に敏感であることを示すことができる。驚くべきことに、我々の実験では、UNetとより洗練されたE2E-VarNetは、このような攻撃に対して同様の感度を示しました。この結果は、DLベースの手法が臨床に近づくにつれ、注意が必要であることを示す証拠となるものである。
要約(オリジナル)
Deep Learning (DL) methods have shown promising results for solving ill-posed inverse problems such as MR image reconstruction from undersampled $k$-space data. However, these approaches currently have no guarantees for reconstruction quality and the reliability of such algorithms is only poorly understood. Adversarial attacks offer a valuable tool to understand possible failure modes and worst case performance of DL-based reconstruction algorithms. In this paper we describe adversarial attacks on multi-coil $k$-space measurements and evaluate them on the recently proposed E2E-VarNet and a simpler UNet-based model. In contrast to prior work, the attacks are targeted to specifically alter diagnostically relevant regions. Using two realistic attack models (adversarial $k$-space noise and adversarial rotations) we are able to show that current state-of-the-art DL-based reconstruction algorithms are indeed sensitive to such perturbations to a degree where relevant diagnostic information may be lost. Surprisingly, in our experiments the UNet and the more sophisticated E2E-VarNet were similarly sensitive to such attacks. Our findings add further to the evidence that caution must be exercised as DL-based methods move closer to clinical practice.
arxiv情報
| 著者 | Jan Nikolas Morshuis,Sergios Gatidis,Matthias Hein,Christian F. Baumgartner |
| 発行日 | 2022-08-05 13:39:40+00:00 |
| arxivサイト | arxiv_id(pdf) |