CuNeRF: Cube-Based Neural Radiance Field for Zero-Shot Medical Image Arbitrary-Scale Super Resolution

要約

タイトル:ゼロショット医用画像任意スケール超解像のためのキューブベースニューラル放射束場(CuNeRF)

要約:
– 医用画像の任意スケール超解像(MIASSR)は、単一のモデルを用いて医用ボリュームを任意のスケールで超サンプリングすることを目的として、最近広く注目されています。
– しかし、既存のMIASSR手法には2つの主要な制限があります:(i)高解像度(HR)ボリュームへの依存と(ii)限られた汎用性があり、様々なシナリオでの適用を制限します。
-これらの制限を克服するために、低解像度(LR)とHRボリュームのマッピングを合わせる既存のMIASSR方法とは異なり、CuNeRFは、HRリファレンスなしで、LRボリュームから連続ドメインで座標-強度連続表現を構築することに重点を置いています。
– 提案された微分可能モジュールによってこれを実現する:キューブベースサンプリング、等方性ボリューム描画、キューブベース階層描画など。
– 磁気共鳴画像(MRI)およびコンピュータ断層撮影(CT)モダリティに関する詳細な実験で、CuNeRFが最先端のMIASSR方法を上回ることを示しました。
– CuNeRFは、様々なアップサンプリング係数でより良い視覚的精度とアーティファクトを削減します。
– さらに、CuNeRFはLR-HRトレーニングペアを必要としないため、他の方法よりも柔軟で使用が容易です。

要約(オリジナル)

Medical image arbitrary-scale super-resolution (MIASSR) has recently gained widespread attention, aiming to super sample medical volumes at arbitrary scales via a single model. However, existing MIASSR methods face two major limitations: (i) reliance on high-resolution (HR) volumes and (ii) limited generalization ability, which restricts their application in various scenarios. To overcome these limitations, we propose Cube-based Neural Radiance Field (CuNeRF), a zero-shot MIASSR framework that can yield medical images at arbitrary scales and viewpoints in a continuous domain. Unlike existing MIASSR methods that fit the mapping between low-resolution (LR) and HR volumes, CuNeRF focuses on building a coordinate-intensity continuous representation from LR volumes without the need for HR references. This is achieved by the proposed differentiable modules: including cube-based sampling, isotropic volume rendering, and cube-based hierarchical rendering. Through extensive experiments on magnetic resource imaging (MRI) and computed tomography (CT) modalities, we demonstrate that CuNeRF outperforms state-of-the-art MIASSR methods. CuNeRF yields better visual verisimilitude and reduces aliasing artifacts at various upsampling factors. Moreover, our CuNeRF does not need any LR-HR training pairs, which is more flexible and easier to be used than others. Our code will be publicly available soon.

arxiv情報

著者 Zixuan Chen,Jianhuang Lai,Lingxiao Yang,Xiaohua Xie
発行日 2023-04-09 20:41:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, eess.IV パーマリンク