VILENS: Visual, Inertial, Lidar, and Leg Odometry for All-Terrain Legged Robots

要約

ファクターグラフに基づいた脚式ロボットのオドメトリシステムである視覚慣性ライダー脚式ナビゲーションシステム(VILENS)を紹介します。
主な新しさは、4 つの異なるセンサー モダリティを緊密に融合して、個別のセンサーが縮退した推定を生成する場合に信頼性の高い動作を実現することです。
脚のオドメトリ ドリフトを最小限に抑えるために、オンラインで推定される線形速度バイアス項を使用してロボットの状態を拡張します。
この偏りは、この事前に統合された速度係数と視覚、ライダー、および慣性測定装置 (IMU) 係数が緊密に融合しているために観察可能です。
合計 2 時間、移動距離 1.8 km にわたる、さまざまな ANYmal 四足歩行ロボットに関する広範な実験検証が示されています。
実験には、緩い岩、斜面、泥の上での動的移動が含まれており、滑りや地形の変形などの課題が発生しました。
知覚上の課題には、暗くてほこりっぽい地下洞窟や、開けた何もない場所などが含まれます。
最先端の疎結合アプローチと比較して、並進誤差が 62%、回転誤差が 51% 平均で改善されることがわかりました。
その堅牢性を実証するために、VILEENS は知覚コントローラーとローカル パス プランナーとも統合されました。

要約(オリジナル)

We present visual inertial lidar legged navigation system (VILENS), an odometry system for legged robots based on factor graphs. The key novelty is the tight fusion of four different sensor modalities to achieve reliable operation when the individual sensors would otherwise produce degenerate estimation. To minimize leg odometry drift, we extend the robot’s state with a linear velocity bias term, which is estimated online. This bias is observable because of the tight fusion of this preintegrated velocity factor with vision, lidar, and inertial measurement unit (IMU) factors. Extensive experimental validation on different ANYmal quadruped robots is presented, for a total duration of 2 h and 1.8 km traveled. The experiments involved dynamic locomotion over loose rocks, slopes, and mud, which caused challenges such as slippage and terrain deformation. Perceptual challenges included dark and dusty underground caverns, and open and feature-deprived areas. We show an average improvement of 62% translational and 51% rotational errors compared to a state-of-the-art loosely coupled approach. To demonstrate its robustness, VILENS was also integrated with a perceptive controller and a local path planner.

arxiv情報

著者 David Wisth,Marco Camurri,Maurice Fallon
発行日 2024-10-07 11:27:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク