Automated Surgical Skill Assessment in Endoscopic Pituitary Surgery using Real-time Instrument Tracking on a High-fidelity Bench-top Phantom

要約

評価は主観的ですが、外科技術の向上は一般に患者の転帰の改善につながります。
労働集約的。
そして、ドメイン固有の専門知識が必要です。
低侵襲手術における既存の機械学習機器追跡モデルで実証されているように、自動化されたデータ駆動型メトリクスはこれらの問題を軽減できます。
ただし、これらのモデルは、単独のタスクとロボット手術に焦点を当て、腹腔鏡手術の限られたデータセットでテストされています。
この論文では、内視鏡下垂体手術の鼻期を例として使用した、模擬手術に焦点を当てた新しい公開データセットを紹介します。
シミュレートされた手術により、現実的でありながら再現可能な環境が可能になります。つまり、初心者の外科医は、自動評価から得られた洞察を利用して、実際の手術に移る前にシミュレーターでスキルを磨くことができます。
PRINTNet (下垂体リアルタイム INstrument Tracking Network) は、この自動評価のベースライン モデルとして作成されました。
分類とセグメンテーションのための DeepLabV3 で構成されます。
追跡用の StrongSORT。
リアルタイム パフォーマンスのための NVIDIA Holoscan SDK により、PRINTNet は 22 フレーム/秒で実行され、71.9% の複数オブジェクト追跡精度を達成しました。
この追跡出力を使用して、多層パーセプトロンは、手術スキル レベル (初心者または熟練者) の予測において 87% の精度を達成し、「総手術時間と器具の可視時間の比」は高い手術スキルと相関関係がありました。
したがって、これは、模擬内視鏡下垂体手術における自動手術スキル評価の実現可能性を実証しています。
新しい公開データセットは、https://doi.org/10.5522/04/26511049 で見つけることができます。

要約(オリジナル)

Improved surgical skill is generally associated with improved patient outcomes, although assessment is subjective; labour-intensive; and requires domain specific expertise. Automated data driven metrics can alleviate these difficulties, as demonstrated by existing machine learning instrument tracking models in minimally invasive surgery. However, these models have been tested on limited datasets of laparoscopic surgery, with a focus on isolated tasks and robotic surgery. In this paper, a new public dataset is introduced, focusing on simulated surgery, using the nasal phase of endoscopic pituitary surgery as an exemplar. Simulated surgery allows for a realistic yet repeatable environment, meaning the insights gained from automated assessment can be used by novice surgeons to hone their skills on the simulator before moving to real surgery. PRINTNet (Pituitary Real-time INstrument Tracking Network) has been created as a baseline model for this automated assessment. Consisting of DeepLabV3 for classification and segmentation; StrongSORT for tracking; and the NVIDIA Holoscan SDK for real-time performance, PRINTNet achieved 71.9% Multiple Object Tracking Precision running at 22 Frames Per Second. Using this tracking output, a Multilayer Perceptron achieved 87% accuracy in predicting surgical skill level (novice or expert), with the ‘ratio of total procedure time to instrument visible time’ correlated with higher surgical skill. This therefore demonstrates the feasibility of automated surgical skill assessment in simulated endoscopic pituitary surgery. The new publicly available dataset can be found here: https://doi.org/10.5522/04/26511049.

arxiv情報

著者 Adrito Das,Bilal Sidiqi,Laurent Mennillo,Zhehua Mao,Mikael Brudfors,Miguel Xochicale,Danyal Z. Khan,Nicola Newall,John G. Hanrahan,Matthew J. Clarkson,Danail Stoyanov,Hani J. Marcus,Sophia Bano
発行日 2024-09-25 15:27:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク