Robust Localization, Mapping, and Navigation for Quadruped Robots

要約

四足ロボットは現在、強力な補強学習コントローラーと安価で堅牢な商用プラットフォームの可用性のおかげで、ロボット研究のための広範なプラットフォームです。
ただし、現実の世界でテクノロジーの採用を拡大するには、深度カメラなどの低コストセンサーにのみ依存して、堅牢なナビゲーションスタックが必要です。
この論文では、低コストの象限ロボットの堅牢なローカリゼーション、マッピング、およびナビゲーションシステムに向けた最初のステップを紹介します。
この目的を追求して、接触支援の運動学的、視覚的inertial延長、および深さ安定化された視力を組み合わせて、システムの安定性と精度を向上させます。
シミュレーションと2つの異なる現実世界の四足動物プラットフォームでの結果は、システムが環境の正確な2Dマップを生成し、自体を堅牢にローカライズし、自律的にナビゲートできることを示しています。
さらに、システムの重要なコンポーネントの詳細なアブレーション研究と、それらのローカリゼーション精度への影響を提示します。
ビデオ、コード、および追加の実験は、プロジェクトWebサイトhttps://sites.google.com/view/low-cost-quadruped-slamにあります。

要約(オリジナル)

Quadruped robots are currently a widespread platform for robotics research, thanks to powerful Reinforcement Learning controllers and the availability of cheap and robust commercial platforms. However, to broaden the adoption of the technology in the real world, we require robust navigation stacks relying only on low-cost sensors such as depth cameras. This paper presents a first step towards a robust localization, mapping, and navigation system for low-cost quadruped robots. In pursuit of this objective we combine contact-aided kinematic, visual-inertial odometry, and depth-stabilized vision, enhancing stability and accuracy of the system. Our results in simulation and two different real-world quadruped platforms show that our system can generate an accurate 2D map of the environment, robustly localize itself, and navigate autonomously. Furthermore, we present in-depth ablation studies of the important components of the system and their impact on localization accuracy. Videos, code, and additional experiments can be found on the project website: https://sites.google.com/view/low-cost-quadruped-slam

arxiv情報

著者 Dyuman Aditya,Junning Huang,Nico Bohlinger,Piotr Kicki,Krzysztof Walas,Jan Peters,Matteo Luperto,Davide Tateo
発行日 2025-05-04 21:58:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク