要約
現在の整形外科ロボットシステムは、主にナビゲーションに焦点を当てており、ガイドチューブの位置付けに外科医を支援していますが、それでも手動の掘削とねじの配置が必要です。
このタスクの自動化は、手術ツールと骨の間の複雑な身体的相互作用のために高い精度と安全性を必要とするだけでなく、適切な人間の監視なしに実行された場合、重大なリスクをもたらします。
継続的な身体的相互作用が含まれるため、ロボットは外科医と協力し、人間の意図を理解し、常にループに外科医を含める必要があります。
これを達成するために、このペーパーでは、直感的なAR-ハプティックヒューマンロボットインターフェイス、視覚的アテンションベースの外科医モデル、ロボットの共有インタラクション制御スキームなど、新しい認知的人間ロボットコラボレーションフレームワークを提案します。
提案された方法のパフォーマンスを説明するために、整形外科手術のためのロボットプラットフォームに関するユーザー研究が提示されています。
結果は、提案された人間ロボットコラボレーションフレームワークが、安全性と人間工学の観点からフルロボットと完全な人間のコントロールを上回ることを示しています。
要約(オリジナル)
Current orthopedic robotic systems largely focus on navigation, aiding surgeons in positioning a guiding tube but still requiring manual drilling and screw placement. The automation of this task not only demands high precision and safety due to the intricate physical interactions between the surgical tool and bone but also poses significant risks when executed without adequate human oversight. As it involves continuous physical interaction, the robot should collaborate with the surgeon, understand the human intent, and always include the surgeon in the loop. To achieve this, this paper proposes a new cognitive human-robot collaboration framework, including the intuitive AR-haptic human-robot interface, the visual-attention-based surgeon model, and the shared interaction control scheme for the robot. User studies on a robotic platform for orthopedic surgery are presented to illustrate the performance of the proposed method. The results demonstrate that the proposed human-robot collaboration framework outperforms full robot and full human control in terms of safety and ergonomics.
arxiv情報
著者 | Chen Chen,Qikai Zou,Yuhang Song,Mingrui Yu,Senqiang Zhu,Shiji Song,Xiang Li |
発行日 | 2025-01-31 14:47:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google