ORBIT-Surgical: An Open-Simulation Framework for Learning Surgical Augmented Dexterity

要約

物理ベースのシミュレーションにより、ロボットの運転、操作、移動の学習の進歩が加速しました。
しかし、高速、正確、堅牢な手術シミュレーション環境は依然として課題です。
このペーパーでは、NVIDIA Omniverse でのフォトリアリスティックなレンダリングを備えた物理ベースの手術ロボット シミュレーション フレームワークである ORBIT-Surgical を紹介します。
当社は、外科トレーニングにおける一般的なサブタスクを表す、ダ ヴィンチ リサーチ キット (dVRK) およびスマート組織自律ロボット (STAR) 用の 14 のベンチマーク外科タスクを提供します。
ORBIT-Surgical は、GPU 並列化を利用して強化学習および模倣学習アルゴリズムをトレーニングし、人間の手術スキルを強化するロボット学習の研究を促進します。
ORBIT-Surgical は、能動的な知覚タスクのための現実的な合成データの生成も容易にします。
学習したポリシーの物理的な dVRK ロボットへの ORBIT-Surgical sim-to-real 転送を実証します。
プロジェクト Web サイト: orbit-surgical.github.io

要約(オリジナル)

Physics-based simulations have accelerated progress in robot learning for driving, manipulation, and locomotion. Yet, a fast, accurate, and robust surgical simulation environment remains a challenge. In this paper, we present ORBIT-Surgical, a physics-based surgical robot simulation framework with photorealistic rendering in NVIDIA Omniverse. We provide 14 benchmark surgical tasks for the da Vinci Research Kit (dVRK) and Smart Tissue Autonomous Robot (STAR) which represent common subtasks in surgical training. ORBIT-Surgical leverages GPU parallelization to train reinforcement learning and imitation learning algorithms to facilitate study of robot learning to augment human surgical skills. ORBIT-Surgical also facilitates realistic synthetic data generation for active perception tasks. We demonstrate ORBIT-Surgical sim-to-real transfer of learned policies onto a physical dVRK robot. Project website: orbit-surgical.github.io

arxiv情報

著者 Qinxi Yu,Masoud Moghani,Karthik Dharmarajan,Vincent Schorp,William Chung-Ho Panitch,Jingzhou Liu,Kush Hari,Huang Huang,Mayank Mittal,Ken Goldberg,Animesh Garg
発行日 2024-04-24 17:57:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク