WING: Wheel-Inertial Neural Odometry with Ground Manifold Constraints

要約

この論文では、グローバルに連続する地上多様体の仮定に基づいたニューラルネットワーク処理とソフト制約を備えた地上ロボット用の内受容専用オドメトリシステムを提案します。
カメラ、GPS、LiDAR などの外受容センサーは、照明が不十分、屋内環境、埃っぽい場所、真っ直ぐなトンネルなどのシナリオでは問題が発生する可能性があります。
したがって、内受容センサーのみを使用して姿勢推定の精度を向上させることは、前述の劣化シナリオでもナビゲーション システムの信頼性を高めるために重要です。
ただし、IMU やホイール エンコーダなどの内受容センサーは、ノイズの多い測定による大きなドリフトに悩まされます。
これらの課題を克服するために、提案されたシステムは、不確実性を考慮しながら、IMU とホイール エンコーダーからの測定値を補正するためにディープ ニューラル ネットワークをトレーニングします。
さらに、地上ロボットは地上でのみ移動できるため、デュアル 3 次 B スプライン多様体を使用して地表を大域連続多様体としてモデル化し、このソフト制約による推定精度をさらに向上させます。
新しい空間ベースのスライディング ウィンドウ フィルタリング フレームワークは、地上多様体のソフト制約の $C^2$ 連続性を最大限に活用し、生の測定値とニューラル ネットワークからのすべての情報をヨーに依存しない姿勢規則に融合するために提案されています。
広範な実験により、私たちが提案したアプローチが最先端の学習ベースの内受容のみのオドメトリ方法を上回るパフォーマンスを発揮できることが実証されました。

要約(オリジナル)

In this paper, we propose an interoceptive-only odometry system for ground robots with neural network processing and soft constraints based on the assumption of a globally continuous ground manifold. Exteroceptive sensors such as cameras, GPS and LiDAR may encounter difficulties in scenarios with poor illumination, indoor environments, dusty areas and straight tunnels. Therefore, improving the pose estimation accuracy only using interoceptive sensors is important to enhance the reliability of navigation system even in degrading scenarios mentioned above. However, interoceptive sensors like IMU and wheel encoders suffer from large drift due to noisy measurements. To overcome these challenges, the proposed system trains deep neural networks to correct the measurements from IMU and wheel encoders, while considering their uncertainty. Moreover, because ground robots can only travel on the ground, we model the ground surface as a globally continuous manifold using a dual cubic B-spline manifold to further improve the estimation accuracy by this soft constraint. A novel space-based sliding-window filtering framework is proposed to fully exploit the $C^2$ continuity of ground manifold soft constraints and fuse all the information from raw measurements and neural networks in a yaw-independent attitude convention. Extensive experiments demonstrate that our proposed approach can outperform state-of-the-art learning-based interoceptive-only odometry methods.

arxiv情報

著者 Chenxing Jiang,Kunyi Zhang,Sheng Yang,Shaojie Shen,Chao Xu,Fei Gao
発行日 2024-07-23 14:44:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク