6N-DoF Pose Tracking for Tensegrity Robots

要約

圧縮要素 (ロッド) と柔軟な引張要素 (ケーブルなど) で構成されるテンセグリティ ロボットには、柔軟性、軽量、機械的衝撃への耐性など、さまざまな利点があります。
それにもかかわらず、これらのロボットのハイブリッドなソフトとリジッドの性質は、その状態をローカライズして追跡する機能も複雑にします。
この作業は、この分野で大きな課題として認識されているもの、つまり、マーカーを使用しない視覚ベースの方法と、ロボットのケーブルの長さを測定できる新しいオンボード センサーによるテンセグリティ ロボットの状態推定に対処することを目的としています。
.
特に、RGB-D ビデオからのテンセグリティ ロボットの各剛体要素の 6-DoF ポーズと、ケーブル センサーからのエンドキャップ距離測定値を追跡するために、反復最適化プロセスが提案されています。
剛体要素のポーズ推定が物理的に実行可能であること、つまりロッド間または環境との衝突が発生しないことを確認するために、最適化中に物理的制約が導入されます。
実世界の実験は、移動歩行を実行する 3 バー テンセグリティ ロボットを使用して実行されます。
モーション キャプチャ システムからのグラウンド トゥルース データが与えられると、提案された方法は、1~cm 未満の並進誤差と 3 度の回転誤差を達成し、代替方法よりも大幅に優れています。
同時に、このアプローチはロボットのモーション全体で正確な姿勢推定を提供できますが、モーション キャプチャはしばしばオクルージョンによって失敗します。

要約(オリジナル)

Tensegrity robots, which are composed of compressive elements (rods) and flexible tensile elements (e.g., cables), have a variety of advantages, including flexibility, low weight, and resistance to mechanical impact. Nevertheless, the hybrid soft-rigid nature of these robots also complicates the ability to localize and track their state. This work aims to address what has been recognized as a grand challenge in this domain, i.e., the state estimation of tensegrity robots through a markerless, vision-based method, as well as novel, onboard sensors that can measure the length of the robot’s cables. In particular, an iterative optimization process is proposed to track the 6-DoF pose of each rigid element of a tensegrity robot from an RGB-D video as well as endcap distance measurements from the cable sensors. To ensure that the pose estimates of rigid elements are physically feasible, i.e., they are not resulting in collisions between rods or with the environment, physical constraints are introduced during the optimization. Real-world experiments are performed with a 3-bar tensegrity robot, which performs locomotion gaits. Given ground truth data from a motion capture system, the proposed method achieves less than 1~cm translation error and 3 degrees rotation error, which significantly outperforms alternatives. At the same time, the approach can provide accurate pose estimation throughout the robot’s motion, while motion capture often fails due to occlusions.

arxiv情報

著者 Shiyang Lu,William R. Johnson III,Kun Wang,Xiaonan Huang,Joran Booth,Rebecca Kramer-Bottiglio,Kostas Bekris
発行日 2022-10-13 15:52:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク