要約
ディープラーニングベースの除去方法により、低用量CT(LDCT)の画質が大幅に改善されました。
ただし、既存のモデルは、純粋にデータ駆動型の注意メカニズムのために、多くの場合、滑らかな重要な解剖学的詳細を超えています。
この課題に対処するために、新しいLDCT除去フレームワークであるBioattを提案します。
重要な革新は、前提条件の視覚言語モデルBiomedClipから抽出された解剖学的事前分布に参加することにあります。
これらのプライアーは、除去モデルを導き、解剖学的に関連する領域に焦点を合わせて、臨床的に関連する構造を維持しながらノイズを抑制します。
3つの主な貢献を強調しています。Bioattは、複数の解剖学的領域でSSIM、PSNR、およびRMSEのベースラインと注意ベースのモデルを上回ります。
このフレームワークでは、解剖学的前提を空間的注意に直接埋め込むことにより、新しいアーキテクチャパラダイムを紹介します。
最後に、Bioattの注意マップは、モデルの複雑さの増加ではなく、解剖学的ガイダンスに起因する改善が視覚的確認を提供します。
要約(オリジナル)
Deep-learning-based denoising methods have significantly improved Low-Dose CT (LDCT) image quality. However, existing models often over-smooth important anatomical details due to their purely data-driven attention mechanisms. To address this challenge, we propose a novel LDCT denoising framework, BioAtt. The key innovation lies in attending anatomical prior distributions extracted from the pretrained vision-language model BiomedCLIP. These priors guide the denoising model to focus on anatomically relevant regions to suppress noise while preserving clinically relevant structures. We highlight three main contributions: BioAtt outperforms baseline and attention-based models in SSIM, PSNR, and RMSE across multiple anatomical regions. The framework introduces a new architectural paradigm by embedding anatomic priors directly into spatial attention. Finally, BioAtt attention maps provide visual confirmation that the improvements stem from anatomical guidance rather than increased model complexity.
arxiv情報
著者 | Namhun Kim,UiHyun Cho |
発行日 | 2025-04-02 12:14:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google