SurgeMOD: Translating image-space tissue motions into vision-based surgical forces

要約

我々は、ビデオから直接得られた臓器の動きの周波数領域ベースに基づいた、低侵襲ロボット手術における視覚ベースの力推定のための新しいアプローチを提案します。
呼吸や心臓周期などの自然なプロセスによって生成される内部の動きを使用して、周波数領域上の動きの画像空間ベースを推測します。
この表現を扱うとき、問題を限られた量の低周波数に離散化し、環境の画像空間機械モデルを構築します。
この事前構築モデルを使用して、力の推定問題を動的制約問題として定義します。
我々は、この方法が力センサーからの実際の読み取り値と一致する、シリコーンファントムおよび生体外実験の点接触力を確実に推定できることを実証します。
さらに、ユーザーが選択した特定の関心領域上の手術ビデオからコヒーレント フォース テクスチャを合成する定性実験も実行します。
私たちの方法は定量的分析と定性的分析の両方で良好な結果を示しており、純粋に視覚に基づいた手術力推定方法の良い出発点となります。

要約(オリジナル)

We present a new approach for vision-based force estimation in Minimally Invasive Robotic Surgery based on frequency domain basis of motion of organs derived directly from video. Using internal movements generated by natural processes like breathing or the cardiac cycle, we infer the image-space basis of the motion on the frequency domain. As we are working with this representation, we discretize the problem to a limited amount of low-frequencies to build an image-space mechanical model of the environment. We use this pre-built model to define our force estimation problem as a dynamic constraint problem. We demonstrate that this method can estimate point contact forces reliably for silicone phantom and ex-vivo experiments, matching real readings from a force sensor. In addition, we perform qualitative experiments in which we synthesize coherent force textures from surgical videos over a certain region of interest selected by the user. Our method demonstrates good results for both quantitative and qualitative analysis, providing a good starting point for a purely vision-based method for surgical force estimation.

arxiv情報

著者 Mikel De Iturrate Reyzabal,Dionysios Malas,Shuai Wang,Sebastien Ourselin,Hongbin Liu
発行日 2024-06-25 16:46:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク