An Effectiveness Study Across Baseline and Neural Network-based Force Estimation Methods on the da Vinci Research Kit Si System

要約

この研究では、ダ ヴィンチ リサーチ キット Si (dVRK-Si) を使用して、ニューラル ネットワーク (NN) ベースの力推定手法のロバスト性と汎化能力をさらに調査します。
私たちの方法のパフォーマンスを評価するために、力の推定精度をいくつかのベースライン方法と比較します。
これらのアプローチの有効性をベンチマークするために、dVRK classic システムと dVRK-Si システムの間の比較研究を実施します。
力比の平均範囲にわたる平均二乗平均平方根誤差 (RMSE) が dVRK クラシックでは約 3.07%、dVRK では 5.27% であるため、NN ベースの方法は 2 つのシステム間で同等の力推定精度を提供すると結論付けています。
-シ。
dVRK-Si では、すべてのベースライン手法の力推定 RMSE は、全方向において NN ベースの手法より 2 ~ 4 倍大きくなります。
考えられる理由の 1 つは、ベースライン手法で静的な力が変わらない、または力学が時間不変であるという仮定を立てたことです。
これらの仮定は、dVRK Classic にも当てはまります。これは、dVRK Classic には重量が事前にロードされており、水平方向の自己バランスが維持されているためです。
dVRK-Si 構成にはこの特性がないため、仮定はもはや当てはまらず、したがって NN ベースの方法の方が大幅に優れています。

要約(オリジナル)

In this study, we further investigate the robustness and generalization ability of an neural network (NN) based force estimation method, using the da Vinci Research Kit Si (dVRK-Si). To evaluate our method’s performance, we compare the force estimation accuracy with several baseline methods. We conduct comparative studies between the dVRK classic and dVRK-Si systems to benchmark the effectiveness of these approaches. We conclude that the NN-based method provides comparable force estimation accuracy across the two systems, as the average root mean square error (RMSE) over the average range of force ratio is approximately 3.07% for the dVRK classic, and 5.27% for the dVRK-Si. On the dVRK-Si, the force estimation RMSEs for all the baseline methods are 2 to 4 times larger than the NN-based method in all directions. One possible reason is, we made assumptions in the baseline methods that static forces remain the same or dynamics is time-invariant. These assumptions may hold for the dVRK Classic, as it has pre-loaded weight and maintains horizontal self balance. Since the dVRK-Si configuration does not have this property, assumptions do not hold anymore, therefore the NN-based method significantly outperforms.

arxiv情報

著者 Hao Yang,Ayberk Acar,Keshuai Xu,Anton Deguet,Peter Kazanzides,Jie Ying Wu
発行日 2024-05-13 03:45:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク