A three-dimensional force estimation method for the cable-driven soft robot based on monocular images

要約

ソフトマニピュレータは、ロボット支援手術や高齢者の介護など、安全性が要求されるインタラクションタスクに対処するのに優れていることで知られていますが、リアルタイムの接触フィードバックに存在する課題が、精密な操作へのさらなる応用を妨げています。
この論文は、インタラクティブなタスクにおけるソフトロボットの能力を強化することを目的として、ソフトロボットの3D接触力を推定するためのエンドツーエンドネットワークを提案します。
提示された方法は、ネットワーク入力として多次元作動情報と融合された単眼画像を直接利用することを特徴としています。
このアプローチは、ネットワーク入力に 3D 形状情報を利用する関連研究と比較して、生データの前処理を簡素化し、その結果、構成再構築エラーを削減します。
統合特徴表現モジュールは、システムの作動信号からの低次元特徴を画像特徴と同じレベルに引き上げ、マルチモーダル情報のよりスムーズな統合を促進するように考案されています。
提案された方法はソフトロボットのテストベッドで実験的に検証され、3D力推定で満足のいく精度を達成しました(関連研究で最もよく報告された結果の2.2%と比較して、平均相対誤差は0.84%でした)。

要約(オリジナル)

Soft manipulators are known for their superiority in coping with high-safety-demanding interaction tasks, e.g., robot-assisted surgeries, elderly caring, etc. Yet the challenges residing in real-time contact feedback have hindered further applications in precise manipulation. This paper proposes an end-to-end network to estimate the 3D contact force of the soft robot, with the aim of enhancing its capabilities in interactive tasks. The presented method features directly utilizing monocular images fused with multidimensional actuation information as the network inputs. This approach simplifies the preprocessing of raw data compared to related studies that utilize 3D shape information for network inputs, consequently reducing configuration reconstruction errors. The unified feature representation module is devised to elevate low-dimensional features from the system’s actuation signals to the same level as image features, facilitating smoother integration of multimodal information. The proposed method has been experimentally validated in the soft robot testbed, achieving satisfying accuracy in 3D force estimation (with a mean relative error of 0.84% compared to the best-reported result of 2.2% in the related works).

arxiv情報

著者 Xiaohan Zhu,Ran Bu,Zhen Li,Fan Xu,Hesheng Wang
発行日 2024-09-12 13:31:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク