要約
本研究では、自律縫合のためのLearning from Demonstration(LfD)アルゴリズムの訓練と評価を目的として、物理ファントムをMRIスキャンして得られたリアルなモデルを含むオープンソースの手術シミュレーション環境を開発する。LfDアルゴリズムは、Dynamic Movement Primitives (DMP)とLocally Weighted Regression (LWR)を利用するが、針把持に関してより優れた一般性を得るために、器具ではなく針の軌跡に着目する。我々は、複数の縫合デモンストレーションを収集するためのユーザースタディを実施し、LfDアルゴリズムが、あるファントムのある場所でのデモンストレーションから、同じファントムの異なる場所や異なるファントムへ汎化する能力について包括的な分析を行った。その結果、経験豊富な被験者から学習した場合、91.5%という良好な汎化が示され、将来的にはスキル評価を統合する必要性が示された。
要約(オリジナル)
In this work, we develop an open-source surgical simulation environment that includes a realistic model obtained by MRI-scanning a physical phantom, for the purpose of training and evaluating a Learning from Demonstration (LfD) algorithm for autonomous suturing. The LfD algorithm utilizes Dynamic Movement Primitives (DMP) and Locally Weighted Regression (LWR), but focuses on the needle trajectory, rather than the instruments, to obtain better generality with respect to needle grasps. We conduct a user study to collect multiple suturing demonstrations and perform a comprehensive analysis of the ability of the LfD algorithm to generalize from a demonstration at one location in one phantom to different locations in the same phantom and to a different phantom. Our results indicate good generalization, on the order of 91.5%, when learning from more experienced subjects, indicating the need to integrate skill assessment in the future.
arxiv情報
著者 | Haoying Zhou,Yiwei Jiang,Shang Gao,Shiyue Wang,Peter Kazanzides,Gregory S. Fischer |
発行日 | 2024-03-01 20:13:01+00:00 |
arxivサイト | arxiv_id(pdf) |