MUSE: A Real-Time Multi-Sensor State Estimator for Quadruped Robots

要約

このホワイトペーパーでは、四足ロボットナビゲーションにおける状態推定の精度とリアルタイムパフォーマンスを向上させるために設計された革新的な状態推定器であるMuse(マルチセンサー状態推定器)を紹介します。
提案された状態推定量は、[1]で提示された以前の研究に基づいています。
IMUS、エンコーダ、カメラ、LIDARSなどのさまざまなオンボードセンサーからのデータを統合して、滑りやすいシナリオでも、ロボットのポーズと動きの包括的な信頼できる推定を提供します。
Unitree AliengoロボットでMuseをテストし、滑りやすい地形や不均一な地形を含む困難なシナリオで移動制御ループを正常に閉じることに成功しました。
Pronto [2]およびVilens [3]に対するベンチマークは、それぞれ翻訳エラーの67.6%と26.7%の削減を示しました。
さらに、Museは、回転誤差と周波数のLidar-inertial odometryシステムであるDLIO [4]を上回りましたが、Muse(p-muse)の固有受容バージョンはTSIF [5]を上回り、絶対圧迫誤差(ATE)の45.9%の減少を示しました。

要約(オリジナル)

This paper introduces an innovative state estimator, MUSE (MUlti-sensor State Estimator), designed to enhance state estimation’s accuracy and real-time performance in quadruped robot navigation. The proposed state estimator builds upon our previous work presented in [1]. It integrates data from a range of onboard sensors, including IMUs, encoders, cameras, and LiDARs, to deliver a comprehensive and reliable estimation of the robot’s pose and motion, even in slippery scenarios. We tested MUSE on a Unitree Aliengo robot, successfully closing the locomotion control loop in difficult scenarios, including slippery and uneven terrain. Benchmarking against Pronto [2] and VILENS [3] showed 67.6% and 26.7% reductions in translational errors, respectively. Additionally, MUSE outperformed DLIO [4], a LiDAR-inertial odometry system in rotational errors and frequency, while the proprioceptive version of MUSE (P-MUSE) outperformed TSIF [5], with a 45.9% reduction in absolute trajectory error (ATE).

arxiv情報

著者 Ylenia Nisticò,João Carlos Virgolino Soares,Lorenzo Amatucci,Geoff Fink,Claudio Semini
発行日 2025-03-27 09:28:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, eess.SP パーマリンク