Autonomous Intelligent Navigation for Flexible Endoscopy Using Monocular Depth Guidance and 3-D Shape Planning

要約

柔軟な内視鏡の知覚と意思決定に向けた最近の進歩は、コンピューター支援外科的介入に大きな可能性を示しています。
ただし、柔軟な内視鏡検査におけるモデリングの不確実性と患者間の解剖学的変動により、患者固有のシナリオでの効率的で安全なナビゲーションには課題が残っています。
この論文では、システム モデルやグローバル環境のアプリオリな知識を必要としない、柔軟な内視鏡の自律的でインテリジェントなナビゲーションのための自己完結型の視覚的形状融合を備えた新しいデータ駆動型フレームワークを提示します。
学習ベースのアダプティブ ビジュアル サーボ コントローラーは、オンラインでアイ インハンド ビジョン モーター構成を更新し、内視鏡を操縦するために提案されています。これは、ビジョン トランスフォーマー (ViT) を介した単眼深度推定によって導かれます。
周囲の解剖学的構造との不必要で過剰な相互作用を防ぐために、埋め込まれたファイバー ブラッグ グレーティング (FBG) センサーからの内視鏡 3-D 固有感覚全体を通じて、エネルギーに基づく形状計画アルゴリズムが導入されます。
さらに、モデル予測制御 (MPC) 戦略を開発して、弾性ポテンシャル エネルギー フローを最小化し、同時にステアリング ポリシーを最適化します。
いくつかのファントム環境でのFBGファイバーを備えたロボット支援軟性内視鏡の専用ナビゲーション実験は、提案されたフレームワークの有効性と適応性を示しています。

要約(オリジナル)

Recent advancements toward perception and decision-making of flexible endoscopes have shown great potential in computer-aided surgical interventions. However, owing to modeling uncertainty and inter-patient anatomical variation in flexible endoscopy, the challenge remains for efficient and safe navigation in patient-specific scenarios. This paper presents a novel data-driven framework with self-contained visual-shape fusion for autonomous intelligent navigation of flexible endoscopes requiring no priori knowledge of system models and global environments. A learning-based adaptive visual servoing controller is proposed to online update the eye-in-hand vision-motor configuration and steer the endoscope, which is guided by monocular depth estimation via a vision transformer (ViT). To prevent unnecessary and excessive interactions with surrounding anatomy, an energy-motivated shape planning algorithm is introduced through entire endoscope 3-D proprioception from embedded fiber Bragg grating (FBG) sensors. Furthermore, a model predictive control (MPC) strategy is developed to minimize the elastic potential energy flow and simultaneously optimize the steering policy. Dedicated navigation experiments on a robotic-assisted flexible endoscope with an FBG fiber in several phantom environments demonstrate the effectiveness and adaptability of the proposed framework.

arxiv情報

著者 Yiang Lu,Ruofeng Wei,Bin Li,Wei Chen,Jianshu Zhou,Qi Dou,Dong Sun,Yun-hui Liu
発行日 2023-02-26 03:03:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク