要約
術前の3Dモデルを術中2Dフレームにオーバーレイすることによる肝臓登録は、外科医の空間解剖学を明らかに外科的成功率のために認識するのを助けることができます。
既存の登録方法は、解剖学的ランドマークベースのワークフローに大きく依存しており、2つの主要な制限が発生します。1)あいまいなランドマーク定義は、登録に効率的なマーカーを提供できません。
2)形状変形モデリングにおける術中肝臓の視覚情報の統合が不十分です。
これらの課題に対処するために、このホワイトペーパーでは、効果的な自己監視学習と呼ばれる\ ourmodelと呼ばれるランドマークのない術前から侵入登録フレームワークを提案します。
このフレームワークは、従来の3D-2Dワークフローを3D-3D登録パイプラインに変換し、その後、剛性と非剛性の登録サブタスクに分離されます。
\ ourmodel〜最初に、剛性変換を回復するための堅牢な対応を学習するために、機能定量の変圧器を導入します。
さらに、術前の肝臓表面と整列するように術前モデルを調整するように構造正規化された変形ネットワークが設計されています。
このネットワークは、低ランク変圧器ネットワークのジオメトリ類似性モデリングを通じて構造相関をキャプチャします。
登録パフォーマンスの検証を容易にするために、21人の患者の肝臓切除ビデオを含む生体内登録データセットを構築します。
合成データセットと生体内データセットの両方に関する広範な実験とユーザー研究は、私たちの方法の優位性と潜在的な臨床的適用性を示しています。
要約(オリジナル)
Liver registration by overlaying preoperative 3D models onto intraoperative 2D frames can assist surgeons in perceiving the spatial anatomy of the liver clearly for a higher surgical success rate. Existing registration methods rely heavily on anatomical landmark-based workflows, which encounter two major limitations: 1) ambiguous landmark definitions fail to provide efficient markers for registration; 2) insufficient integration of intraoperative liver visual information in shape deformation modeling. To address these challenges, in this paper, we propose a landmark-free preoperative-to-intraoperative registration framework utilizing effective self-supervised learning, termed \ourmodel. This framework transforms the conventional 3D-2D workflow into a 3D-3D registration pipeline, which is then decoupled into rigid and non-rigid registration subtasks. \ourmodel~first introduces a feature-disentangled transformer to learn robust correspondences for recovering rigid transformations. Further, a structure-regularized deformation network is designed to adjust the preoperative model to align with the intraoperative liver surface. This network captures structural correlations through geometry similarity modeling in a low-rank transformer network. To facilitate the validation of the registration performance, we also construct an in-vivo registration dataset containing liver resection videos of 21 patients, called \emph{P2I-LReg}, which contains 346 keyframes that provide a global view of the liver together with liver mask annotations and calibrated camera intrinsic parameters. Extensive experiments and user studies on both synthetic and in-vivo datasets demonstrate the superiority and potential clinical applicability of our method.
arxiv情報
著者 | Jun Zhou,Bingchen Gao,Kai Wang,Jialun Pei,Pheng-Ann Heng,Jing Qin |
発行日 | 2025-04-21 14:55:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google