要約
スパースビュー CT データの再構成に使用されるディープ ニューラル ネットワークは、通常、一連のトレーニング画像に対するピクセル単位の平均二乗誤差または同様の損失関数を最小化することによってトレーニングされます。
ただし、このようなピクセル単位の損失を考慮してトレーニングされたネットワークは、スクリーニングや診断に重要な小さくてコントラストの低い特徴を消去してしまう傾向があります。
この問題を解決するために、モデル オブザーバー フレームワークからインスピレーションを得た新しいトレーニング損失を導入し、再構成における弱い信号の検出可能性を高めます。
合成スパースビュー乳房 CT データの再構成に関するアプローチを評価し、提案された損失による信号検出可能性の向上を実証します。
要約(オリジナル)
Deep neural networks used for reconstructing sparse-view CT data are typically trained by minimizing a pixel-wise mean-squared error or similar loss function over a set of training images. However, networks trained with such pixel-wise losses are prone to wipe out small, low-contrast features that are critical for screening and diagnosis. To remedy this issue, we introduce a novel training loss inspired by the model observer framework to enhance the detectability of weak signals in the reconstructions. We evaluate our approach on the reconstruction of synthetic sparse-view breast CT data, and demonstrate an improvement in signal detectability with the proposed loss.
arxiv情報
著者 | Megan Lantz,Emil Y. Sidky,Ingrid S. Reiser,Xiaochuan Pan,Gregory Ongie |
発行日 | 2024-02-15 15:18:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google