要約
コーンビームコンピュータ断層撮影 (CBCT) から合成コンピュータ断層撮影 (CT) 画像を生成することは、CBCT の画質を向上させるために望ましいです。
畳み込みニューラル ネットワーク (CNN) とトランスフォーマーを使用した既存の合成 CT (sCT) 生成方法では、高品質の sCT 生成のためにグローバルとローカルの両方の特徴とコントラストを効果的にキャプチャすることが困難になることがよくあります。
この研究では、sCT 生成のためのグローバル-ローカル特徴およびコントラスト学習 (GLFC) フレームワークを提案します。
まず、Mamba ブロックを高解像度 UNet のスキップ接続に統合することにより、Mamba-Enhanced UNet (MEUNet) が導入され、グローバルおよびローカル特徴量の効果的な学習が可能になります。
次に、軟組織と骨領域の両方の品質を向上させるために、さまざまな強度ウィンドウで合成損失を計算するマルチ コントラスト損失 (MCL) を提案します。
SynthRAD2023 データセットの実験では、GLFC が元の CBCT と比較して sCT の SSIM を 77.91% から 91.50% に改善し、sCT 生成のためのいくつかの既存の方法を大幅に上回っていることが実証されました。
コードは https://github.com/intelland/GLFC で入手できます。
要約(オリジナル)
Generating synthetic Computed Tomography (CT) images from Cone Beam Computed Tomography (CBCT) is desirable for improving the image quality of CBCT. Existing synthetic CT (sCT) generation methods using Convolutional Neural Networks (CNN) and Transformers often face difficulties in effectively capturing both global and local features and contrasts for high-quality sCT generation. In this work, we propose a Global-Local Feature and Contrast learning (GLFC) framework for sCT generation. First, a Mamba-Enhanced UNet (MEUNet) is introduced by integrating Mamba blocks into the skip connections of a high-resolution UNet for effective global and local feature learning. Second, we propose a Multiple Contrast Loss (MCL) that calculates synthetic loss at different intensity windows to improve quality for both soft tissues and bone regions. Experiments on the SynthRAD2023 dataset demonstrate that GLFC improved the SSIM of sCT from 77.91% to 91.50% compared with the original CBCT, and significantly outperformed several existing methods for sCT generation. The code is available at https://github.com/intelland/GLFC
arxiv情報
著者 | Xianhao Zhou,Jianghao Wu,Huangxuan Zhao,Lei Chen,Shaoting Zhang,Guotai Wang,Guotai Wang |
発行日 | 2025-01-06 13:11:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google