SlideSLAM: Sparse, Lightweight, Decentralized Metric-Semantic SLAM for Multi-Robot Navigation

要約

この論文では、スパースで軽量なオブジェクトベースの表現を活用して、異種ロボット チームが依存することなく屋内、都市部、森林地帯を特徴とする 3D 環境を自律的に探索できるようにする、リアルタイムの分散型メトリックセマンティック同時位置特定およびマッピング (SLAM) アプローチを開発します。
GPSで。
オブジェクトモデルの高レベルのスパースセマンティックマップと低レベルのボクセルマップを含む、環境の階層的なメトリックセマンティック表現を使用します。
高レベルのセマンティック マップの情報提供性と視点不変性を活用して、さまざまなセンシング モダリティを備えた空中ロボットと地上ロボットにわたるロボット間ループ閉鎖検出のための効果的なセマンティクス駆動型の場所認識アルゴリズムを取得します。
通信モジュールは、各ロボットの観察と通信範囲内の他のロボットの観察を追跡するように設計されています。
このような観察結果は、結合されたマップを構築するために使用されます。
私たちのフレームワークにより、ロボットに搭載されたリアルタイムの分散操作が可能になり、ロボットが通信を活用できるようになります。
私たちは、提案したフレームワークを 3 種類の空中ロボットと地上ロボットに統合して展開します。
広範な実験結果によると、平均位置推定誤差は位置で 0.22 メートル、方向で -0.16 度、オブジェクト マッピングの F1 スコアは 0.92、通信パケット サイズは 1,000 個のランドマークで 1 キロメートルの軌道あたりわずか 2 ~ 3 メガバイトです。
プロジェクトの Web サイトは https://xurobotics.github.io/slideslam/ にあります。

要約(オリジナル)

This paper develops a real-time decentralized metric-semantic Simultaneous Localization and Mapping (SLAM) approach that leverages a sparse and lightweight object-based representation to enable a heterogeneous robot team to autonomously explore 3D environments featuring indoor, urban, and forested areas without relying on GPS. We use a hierarchical metric-semantic representation of the environment, including high-level sparse semantic maps of object models and low-level voxel maps. We leverage the informativeness and viewpoint invariance of the high-level semantic map to obtain an effective semantics-driven place-recognition algorithm for inter-robot loop closure detection across aerial and ground robots with different sensing modalities. A communication module is designed to track each robot’s observations and those of other robots within the communication range. Such observations are then used to construct a merged map. Our framework enables real-time decentralized operations onboard robots, allowing them to opportunistically leverage communication. We integrate and deploy our proposed framework on three types of aerial and ground robots. Extensive experimental results show an average localization error of 0.22 meters in position and -0.16 degrees in orientation, an object mapping F1 score of 0.92, and a communication packet size of merely 2-3 megabytes per kilometer trajectory with 1,000 landmarks. The project website can be found at https://xurobotics.github.io/slideslam/.

arxiv情報

著者 Xu Liu,Jiuzhou Lei,Ankit Prabhu,Yuezhan Tao,Igor Spasojevic,Pratik Chaudhari,Nikolay Atanasov,Vijay Kumar
発行日 2024-06-25 03:34:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク