要約
コンピューター断層撮影 (CT) による肺気腫の確実な定量化は、さまざまな種類のスキャナーによるスキャンや臨床スキャンへの変換を伴う大規模な研究研究にとって依然として困難です。
既存の研究では、密度補正、ノイズ フィルタリング、回帰、隠れマルコフ測定場 (HMMF) モデルベースのセグメンテーション、容積調整肺密度など、この課題に取り組むためのいくつかの方向性が検討されてきました。
いくつかの有望な結果にもかかわらず、これまでの研究では、退屈なワークフローが必要か、下流の肺気腫のサブタイプを特定する機会が限られていたため、大規模研究での効率的な適応が制限されていました。
このジレンマを軽減するために、既存の HMMF セグメンテーション フレームワークに基づいたエンドツーエンドの深層学習フレームワークを開発しました。
まず、スキャナ事前分布が欠如しているため、通常の UNet では既存の HMMF 結果を複製できないことを示します。
次に、画像特徴と定量的スキャナ事前分布を融合する新しいドメイン アテンション ブロックを設計し、結果を大幅に改善します。
要約(オリジナル)
Robust quantification of pulmonary emphysema on computed tomography (CT) remains challenging for large-scale research studies that involve scans from different scanner types and for translation to clinical scans. Existing studies have explored several directions to tackle this challenge, including density correction, noise filtering, regression, hidden Markov measure field (HMMF) model-based segmentation, and volume-adjusted lung density. Despite some promising results, previous studies either required a tedious workflow or limited opportunities for downstream emphysema subtyping, limiting efficient adaptation on a large-scale study. To alleviate this dilemma, we developed an end-to-end deep learning framework based on an existing HMMF segmentation framework. We first demonstrate that a regular UNet cannot replicate the existing HMMF results because of the lack of scanner priors. We then design a novel domain attention block to fuse image feature with quantitative scanner priors which significantly improves the results.
arxiv情報
著者 | Xuzhe Zhang,Elsa D. Angelini,Eric A. Hoffman,Karol E. Watson,Benjamin M. Smith,R. Graham Barr,Andrew F. Laine |
発行日 | 2024-02-28 15:04:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google