要約
4次元コンピューター断層撮影(4D CT)再構築は、動的な解剖学的変化をキャプチャするために重要ですが、従来の位相式ワークフローからの固有の制限に直面しています。
現在の方法は、一時的な分解能を呼吸ゲーティング装置で固定相に離散化し、動きの不整合を導入し、臨床的実用性を制限します。
この論文では、X $^2 $ -Gaussianを提案します。これは、動的な放射ガウスのスプラットと自己監視の呼吸運動学習を統合することにより、連続時間4D-CT再構成を可能にする新しいフレームワークです。
私たちのアプローチは、時変ガウス変形を予測し、位相離散化を排除する空間的エンコーダーデコーダーアーキテクチャを介して解剖学的ダイナミクスをモデル化します。
外部ゲーティングデバイスへの依存関係を削除するために、微分可能な最適化を介して投影から直接患者固有の呼吸サイクルを学習する生理学駆動型の定期的な一貫性の損失を導入します。
広範な実験は、最先端のパフォーマンスを実証し、従来の方法で9.93 dB PSNRゲインを達成し、以前のガウススプラットテクニックに対して2.25 dBの改善を達成します。
ハードウェアフリーの期間学習を使用して連続モーションモデリングを統合することにより、x $^2 $ -Gaussianは、動的臨床イメージングのための高忠実度4D CT再構築を進めます。
プロジェクトWebサイト:https://x2-gaussian.github.io/。
要約(オリジナル)
Four-dimensional computed tomography (4D CT) reconstruction is crucial for capturing dynamic anatomical changes but faces inherent limitations from conventional phase-binning workflows. Current methods discretize temporal resolution into fixed phases with respiratory gating devices, introducing motion misalignment and restricting clinical practicality. In this paper, We propose X$^2$-Gaussian, a novel framework that enables continuous-time 4D-CT reconstruction by integrating dynamic radiative Gaussian splatting with self-supervised respiratory motion learning. Our approach models anatomical dynamics through a spatiotemporal encoder-decoder architecture that predicts time-varying Gaussian deformations, eliminating phase discretization. To remove dependency on external gating devices, we introduce a physiology-driven periodic consistency loss that learns patient-specific breathing cycles directly from projections via differentiable optimization. Extensive experiments demonstrate state-of-the-art performance, achieving a 9.93 dB PSNR gain over traditional methods and 2.25 dB improvement against prior Gaussian splatting techniques. By unifying continuous motion modeling with hardware-free period learning, X$^2$-Gaussian advances high-fidelity 4D CT reconstruction for dynamic clinical imaging. Project website at: https://x2-gaussian.github.io/.
arxiv情報
著者 | Weihao Yu,Yuanhao Cai,Ruyi Zha,Zhiwen Fan,Chenxin Li,Yixuan Yuan |
発行日 | 2025-03-27 17:59:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google