Semantic Exploration and Dense Mapping of Complex Environments using Ground Robots Equipped with LiDAR and Panoramic Camera

要約

このペーパーでは、Lidar-Panoramic Camera Suiteを装備した地上ロボットを使用して、自律的なセマンティック探査と密集したセマンティックターゲットマッピングのシステムを紹介します。
既存のアプローチは、複数のビュー角から高品質の観測を収集し、不必要な繰り返しトラバーサルを回避するのに苦労しています。
このギャップを埋めるために、マッピングと計画を組み合わせた完全なシステムを提案します。
最初に、幾何学的なカバレッジとセマンティックビューポイントの観察の両方を完了するとしてタスクを再定義します。
次に、セマンティックビューと幾何学的視点を個別に管理し、新しい優先順位駆動型のデカップされたローカルサンプラーを提案して、ローカルビューポイントセットを生成します。
これにより、不必要な繰り返しなしで明示的なマルチビューセマンティック検査とボクセルカバレッジが可能になります。
これに基づいて、効率的なグローバルなカバレッジを確保するために、階層プランナーを開発します。
さらに、安全な積極的な探索状態マシンを提案します。これにより、ロボットの安全性を確保しながら、積極的な探索動作が可能になります。
当社のシステムには、PointCloudレベルの高密度セマンティックマッピングの最先端のスラムアルゴリズムとシームレスに統合されるプラグアンドプレイセマンティックターゲットマッピングモジュールが含まれています。
現実的なシミュレーションと複雑な現実世界環境の両方での広範な実験を通じて、アプローチを検証します。
シミュレーション結果は、プランナーが指定された数のマルチビュー検査を保証しながら、より速い探索とより短い移動距離を達成することを示しています。
実際の実験は、非構造化環境の正確な密度のセマンティックオブジェクトマッピングを達成する際のシステムの有効性をさらに確認します。

要約(オリジナル)

This paper presents a system for autonomous semantic exploration and dense semantic target mapping of a complex unknown environment using a ground robot equipped with a LiDAR-panoramic camera suite. Existing approaches often struggle to balance collecting high-quality observations from multiple view angles and avoiding unnecessary repetitive traversal. To fill this gap, we propose a complete system combining mapping and planning. We first redefine the task as completing both geometric coverage and semantic viewpoint observation. We then manage semantic and geometric viewpoints separately and propose a novel Priority-driven Decoupled Local Sampler to generate local viewpoint sets. This enables explicit multi-view semantic inspection and voxel coverage without unnecessary repetition. Building on this, we develop a hierarchical planner to ensure efficient global coverage. In addition, we propose a Safe Aggressive Exploration State Machine, which allows aggressive exploration behavior while ensuring the robot’s safety. Our system includes a plug-and-play semantic target mapping module that integrates seamlessly with state-of-the-art SLAM algorithms for pointcloud-level dense semantic target mapping. We validate our approach through extensive experiments in both realistic simulations and complex real-world environments. Simulation results show that our planner achieves faster exploration and shorter travel distances while guaranteeing a specified number of multi-view inspections. Real-world experiments further confirm the system’s effectiveness in achieving accurate dense semantic object mapping of unstructured environments.

arxiv情報

著者 Xiaoyang Zhan,Shixin Zhou,Qianqian Yang,Yixuan Zhao,Hao Liu,Srinivas Chowdary Ramineni,Kenji Shimada
発行日 2025-05-28 21:27:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク