要約
手術タスクを理解することは、手術ロボット システムの自律性にとって重要な課題です。
これを達成するために、階層的遷移状態クラスタリングを使用して事前定義されたロボット支援をアクティブにするオンライン タスク セグメンテーション フレームワークを提案します。
私たちのアプローチには、視覚的特徴に対して最初のクラスタリングを実行し、その後、視覚的クラスターごとにロボットの運動学的特徴に対してクラスタリングを実行することが含まれます。
これにより、各モダリティの関連するタスク遷移情報を個別に取得できるようになります。
このアプローチは、外科訓練でよく見られるピックアンドプレースタスク用に実装されています。
遷移セグメンテーションの検証では、高い精度と高速な計算時間が示されました。
遷移認識モジュールを、事前定義されたロボット支援ツールの位置決めと統合しました。
完全なフレームワークは、タスク完了時間と認知作業負荷の削減に利点を示しています。
要約(オリジナル)
Understanding surgical tasks represents an important challenge for autonomy in surgical robotic systems. To achieve this, we propose an online task segmentation framework that uses hierarchical transition state clustering to activate predefined robot assistance. Our approach involves performing a first clustering on visual features and a subsequent clustering on robot kinematic features for each visual cluster. This enables to capture relevant task transition information on each modality independently. The approach is implemented for a pick-and-place task commonly found in surgical training. The validation of the transition segmentation showed high accuracy and fast computation time. We have integrated the transition recognition module with predefined robot-assisted tool positioning. The complete framework has shown benefits in reducing task completion time and cognitive workload.
arxiv情報
著者 | Yutaro Yamada,Jacinto Colan,Ana Davila,Yasuhisa Hasegawa |
発行日 | 2024-06-14 12:57:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google