要約
コーンビームコンピュータ断層撮影 (CBCT) は、がん治療のための最新の患者の解剖学的情報を提供するために、画像誘導放射線治療 (IGRT) 中に定期的に収集されます。
ただし、CBCT 画像は、アンダーレートのサンプリング投影と低線量被曝によって引き起こされる縞模様のアーティファクトやノイズに悩まされることが多く、その結果、鮮明度が低くなり、情報が失われます。
最近の深層学習ベースの CBCT 強化手法はアーチファクトの抑制において有望な結果を示していますが、従来のピクセル間の損失関数では詳細な解剖学的構造を記述することができないため、解剖学的詳細の保存に関してはパフォーマンスが制限されています。
この問題に対処するために、私たちは、マルチタスクでカスタマイズされた特徴ごとの知覚損失関数を介して、低品質の CBCT 画像を高品質の CT のようなイメージングに変換する、新しい特徴指向の深層学習フレームワークを提案します。
このフレームワークは 2 つの主要コンポーネントで構成されます。知覚損失関数をカスタマイズするためのマルチタスク学習特徴選択ネットワーク (MTFS-Net)。
もう 1 つは、U-Net、GAN、CycleGAN などの高度な生成モデルを使用する、特徴間の知覚損失によって導かれる CBCT から CT への変換ネットワークです。
私たちの実験では、提案されたフレームワークが、平均 SSIM インデックス 0.9869、平均 PSNR インデックス 39.9621 の CT 画像との高い類似性を達成した肺の合成 CT (sCT) 画像を生成できることが示されました。
sCT 画像はまた、効果的なアーチファクトの抑制、ノイズの低減、独特の解剖学的詳細の保存により、視覚的に心地よいパフォーマンスを実現しました。
私たちの実験結果は、提案されたフレームワークが肺 CBCT 増強の最先端のモデルよりも優れていることを示しています。
このフレームワークは、さまざまな臨床用途に適した CBCT から高品質の解剖学的イメージングを生成する上で大きな期待を集めています。
要約(オリジナル)
Cone-beam computed tomography (CBCT) is routinely collected during image-guided radiation therapy (IGRT) to provide updated patient anatomy information for cancer treatments. However, CBCT images often suffer from streaking artifacts and noise caused by under-rate sampling projections and low-dose exposure, resulting in low clarity and information loss. While recent deep learning-based CBCT enhancement methods have shown promising results in suppressing artifacts, they have limited performance on preserving anatomical details since conventional pixel-to-pixel loss functions are incapable of describing detailed anatomy. To address this issue, we propose a novel feature-oriented deep learning framework that translates low-quality CBCT images into high-quality CT-like imaging via a multi-task customized feature-to-feature perceptual loss function. The framework comprises two main components: a multi-task learning feature-selection network(MTFS-Net) for customizing the perceptual loss function; and a CBCT-to-CT translation network guided by feature-to-feature perceptual loss, which uses advanced generative models such as U-Net, GAN and CycleGAN. Our experiments showed that the proposed framework can generate synthesized CT (sCT) images for the lung that achieved a high similarity to CT images, with an average SSIM index of 0.9869 and an average PSNR index of 39.9621. The sCT images also achieved visually pleasing performance with effective artifacts suppression, noise reduction, and distinctive anatomical details preservation. Our experiment results indicate that the proposed framework outperforms the state-of-the-art models for pulmonary CBCT enhancement. This framework holds great promise for generating high-quality anatomical imaging from CBCT that is suitable for various clinical applications.
arxiv情報
著者 | Jiarui Zhu,Werxing Chen,Hongfei Sun,Shaohua Zhi,Jing Qin,Jing Cai,Ge Ren |
発行日 | 2023-11-01 10:09:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google