要約
軟部組織と硬い解剖学の間の複雑な相互作用をシミュレートすることは、外科的訓練、計画、およびロボット支援介入のアプリケーションにとって重要です。
従来の有限要素法(FEM)ベースのシミュレーションは、正確ですが、リアルタイムシナリオにとっては計算高価で非実用的です。
学習ベースのアプローチは、予測を加速することで有望であることを示していますが、柔らかい倍率の相互作用を効果的にモデリングするのに不足しています。
混合物質シミュレーション用の物理情報に基づいたグラフニューラルネットワーク(GNN)フレームワークであるMixPinnを紹介し、グラフベースの増強を使用してソフトリギッド相互作用を明示的にキャプチャします。
当社のアプローチは、仮想ノード(VNS)と仮想エッジ(VE)を統合して、計算効率を維持しながら剛体の制約満足度を高めます。
生体力学的構造のグラフベースの表現を活用することにより、Mixpinnはフェム生成データから高忠実度の変形を学習し、サブミリメーターの精度でリアルタイムの推論を達成します。
ベースラインGNNモデルや従来のFEM方法と比較して優れたパフォーマンスを実証する現実的な臨床シナリオでの方法を検証します。
私たちの結果は、Mixpinnが高い身体的精度を維持しながら計算コストを数桁削減し、リアルタイムの外科シミュレーションとロボット支援手順のための実行可能なソリューションになっていることを示しています。
要約(オリジナル)
Simulating the complex interactions between soft tissues and rigid anatomy is critical for applications in surgical training, planning, and robotic-assisted interventions. Traditional Finite Element Method (FEM)-based simulations, while accurate, are computationally expensive and impractical for real-time scenarios. Learning-based approaches have shown promise in accelerating predictions but have fallen short in modeling soft-rigid interactions effectively. We introduce MIXPINN, a physics-informed Graph Neural Network (GNN) framework for mixed-material simulations, explicitly capturing soft-rigid interactions using graph-based augmentations. Our approach integrates Virtual Nodes (VNs) and Virtual Edges (VEs) to enhance rigid body constraint satisfaction while preserving computational efficiency. By leveraging a graph-based representation of biomechanical structures, MIXPINN learns high-fidelity deformations from FEM-generated data and achieves real-time inference with sub-millimeter accuracy. We validate our method in a realistic clinical scenario, demonstrating superior performance compared to baseline GNN models and traditional FEM methods. Our results show that MIXPINN reduces computational cost by an order of magnitude while maintaining high physical accuracy, making it a viable solution for real-time surgical simulation and robotic-assisted procedures.
arxiv情報
著者 | Xintian Yuan,Yunke Ao,Boqi Chen,Philipp Fuernstahl |
発行日 | 2025-03-17 12:48:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google