Learning Orientation Field for OSM-Guided Autonomous Navigation

要約

OpenStreetMap(OSM)は、公共のアクセシビリティ、メンテナンスコストの削減、より広範な地理的カバレッジにより、自律的なナビゲーションで最近人気を博しました。
ただし、既存の方法は、騒々しいOSMデータと不完全なセンサーの観察に苦労していることが多く、軌道計画の不正確さにつながります。
これらの課題は、交差点や閉塞に直面するなど、複雑な運転シナリオで特に顕著です。
これらの課題に対処するために、LIDARスキャンとOSMルートを統合してロボットナビゲーションの方向フィールド(ORFIELD)を学習するための堅牢で説明可能な2段階のフレームワークを提案します。
最初の段階では、騒々しいライダースキャンとOSMルートから共同で推論する地図上の各グリッドの方向を提供できる新しい表現であるOrfieldを紹介します。
堅牢なオーフィールドを生成するために、多用途の初期オーフィールドをエンコードして最適化されたオーフィールドを出力することにより、深いニューラルネットワークをトレーニングします。
Orfieldに基づいて、OSM誘導ロボットナビゲーションの2つの軌道プランナーを、それぞれField-RRT*とField-Bezierと呼ばれる2つの軌跡プランナーを、ランダムツリー(RRT)アルゴリズムとbezier曲線を迅速に調査するために改善することにより、軌道を推定することを提案します。
グローバル情報とローカル情報の両方をキャプチャするOrfieldの堅牢性のおかげで、Field-RRT*とField-Bezierは、挑戦的な状況でも正確で信頼できる軌跡を生成できます。
Semantickittiデータセットと独自のキャンパスデータセットでの実験を通じて、アプローチを検証します。
結果は、私たちの方法の有効性を示しており、複雑で騒々しい状態で優れたパフォーマンスを達成しています。
ネットワークトレーニングと現実世界の展開のコードは、https://github.com/imrl/orifieldで入手できます。

要約(オリジナル)

OpenStreetMap (OSM) has gained popularity recently in autonomous navigation due to its public accessibility, lower maintenance costs, and broader geographical coverage. However, existing methods often struggle with noisy OSM data and incomplete sensor observations, leading to inaccuracies in trajectory planning. These challenges are particularly evident in complex driving scenarios, such as at intersections or facing occlusions. To address these challenges, we propose a robust and explainable two-stage framework to learn an Orientation Field (OrField) for robot navigation by integrating LiDAR scans and OSM routes. In the first stage, we introduce the novel representation, OrField, which can provide orientations for each grid on the map, reasoning jointly from noisy LiDAR scans and OSM routes. To generate a robust OrField, we train a deep neural network by encoding a versatile initial OrField and output an optimized OrField. Based on OrField, we propose two trajectory planners for OSM-guided robot navigation, called Field-RRT* and Field-Bezier, respectively, in the second stage by improving the Rapidly Exploring Random Tree (RRT) algorithm and Bezier curve to estimate the trajectories. Thanks to the robustness of OrField which captures both global and local information, Field-RRT* and Field-Bezier can generate accurate and reliable trajectories even in challenging conditions. We validate our approach through experiments on the SemanticKITTI dataset and our own campus dataset. The results demonstrate the effectiveness of our method, achieving superior performance in complex and noisy conditions. Our code for network training and real-world deployment is available at https://github.com/IMRL/OriField.

arxiv情報

著者 Yuming Huang,Wei Gao,Zhiyuan Zhang,Maani Ghaffari,Dezhen Song,Cheng-Zhong Xu,Hui Kong
発行日 2025-03-24 01:46:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク