要約
人工股関節全置換術 (THA) は、X 線画像からの正確なランドマーク検出に依存していますが、不規則な患者の姿勢や解剖学的マーカーの閉塞によって引き起こされる非構造化データは、既存の方法にとって大きな課題となります。
これに対処するために、空間関係融合 (SRF) モジュールと不確実性推定 (UE) モジュールを統合する深層学習ベースのフレームワークである UNSCT-HRNet (非構造化 CT – 高解像度ネット) を提案します。
SRF モジュールは、座標畳み込みと偏向注意を利用して、複雑な空間関係を捉えるモデルの能力を強化します。
一方、エントロピーに基づく UE モジュールは、予測が解剖学的に関連していることを保証します。
非構造化データの場合、提案手法は固定点数に依存せずにランドマークを予測できるため、既存の手法と比較して精度が高く、ロバスト性も優れています。
当社の UNSCT-HRNet は、非構造化データの複数の指標にわたって 60% 以上の改善を示しています。
実験結果は、私たちのアプローチが構造化データセット上で良好なパフォーマンスを維持していることも明らかにしています。
全体として、提案された UNSCT-HRNet は、THA 手術計画と術後モニタリングのための新しい信頼性の高い自動ソリューションとして使用できる可能性があります。
要約(オリジナル)
Total hip arthroplasty (THA) relies on accurate landmark detection from radiographic images, but unstructured data caused by irregular patient postures or occluded anatomical markers pose significant challenges for existing methods. To address this, we propose UNSCT-HRNet (Unstructured CT – High-Resolution Net), a deep learning-based framework that integrates a Spatial Relationship Fusion (SRF) module and an Uncertainty Estimation (UE) module. The SRF module, utilizing coordinate convolution and polarized attention, enhances the model’s ability to capture complex spatial relationships. Meanwhile, the UE module which based on entropy ensures predictions are anatomically relevant. For unstructured data, the proposed method can predict landmarks without relying on the fixed number of points, which shows higher accuracy and better robustness comparing with the existing methods. Our UNSCT-HRNet demonstrates over a 60% improvement across multiple metrics in unstructured data. The experimental results also reveal that our approach maintains good performance on the structured dataset. Overall, the proposed UNSCT-HRNet has the potential to be used as a new reliable, automated solution for THA surgical planning and postoperative monitoring.
arxiv情報
著者 | Jiaxin Wan,Lin Liu,Haoran Wang,Liangwei Li,Wei Li,Shuheng Kou,Runtian Li,Jiayi Tang,Juanxiu Liu,Jing Zhang,Xiaohui Du,Ruqian Hao |
発行日 | 2024-11-13 10:13:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google