要約
ディープラーニングは、医療画像における疾患の正確なセグメンテーションに革命をもたらしました。
ただし、そのような結果を達成するには、多数の手動ボクセル アノテーションを使用したトレーニングが必要です。
この要件は、病変が体全体に点在する全身陽電子放射断層撮影 (PET) イメージングにとって課題となります。
この問題に取り組むために、私たちは SW-FastEdit を導入しました。これは、ボクセルごとの注釈の代わりにユーザーが数回クリックするだけでラベル付けを高速化する対話型セグメンテーション フレームワークです。
以前のインタラクティブ モデルでは、メモリの制約により PET ボリュームがトリミングまたはサイズ変更されますが、スライディング ウィンドウ ベースのインタラクティブ スキームでは完全なボリュームを使用します。
私たちのモデルは、AutoPET データセット上で既存の非スライディング ウィンドウ インタラクティブ モデルを上回り、これまで見たことのない HECKTOR データセットに一般化されます。
ユーザー調査により、アノテーターはわずか 10 回のクリック反復と低い NASA-TLX ワークロードで高品質の予測を達成できることが明らかになりました。
私たちのフレームワークは MONAI Label を使用して実装されており、https://github.com/matt3o/AutoPET2-Submission/ から入手できます。
要約(オリジナル)
Deep learning has revolutionized the accurate segmentation of diseases in medical imaging. However, achieving such results requires training with numerous manual voxel annotations. This requirement presents a challenge for whole-body Positron Emission Tomography (PET) imaging, where lesions are scattered throughout the body. To tackle this problem, we introduce SW-FastEdit – an interactive segmentation framework that accelerates the labeling by utilizing only a few user clicks instead of voxelwise annotations. While prior interactive models crop or resize PET volumes due to memory constraints, we use the complete volume with our sliding window-based interactive scheme. Our model outperforms existing non-sliding window interactive models on the AutoPET dataset and generalizes to the previously unseen HECKTOR dataset. A user study revealed that annotators achieve high-quality predictions with only 10 click iterations and a low perceived NASA-TLX workload. Our framework is implemented using MONAI Label and is available: https://github.com/matt3o/AutoPET2-Submission/
arxiv情報
著者 | Matthias Hadlich,Zdravko Marinov,Moon Kim,Enrico Nasca,Jens Kleesiek,Rainer Stiefelhagen |
発行日 | 2023-11-24 13:45:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google