STORM: Spatial-Temporal Iterative Optimization for Reliable Multicopter Trajectory Generation

要約

効率的で安全な軌跡計画は、四輪型の無人航空機の適用に重要な役割を果たします。
現在、UAV軌道最適化問題における制約コンプライアンスと計算効率の向上との間の固有のトレードオフは十分に対処されていません。
UAV軌道最適化のパフォーマンスを向上させるために、空間的な反復最適化フレームワークを提案します。
第一に、B-SplinesはUAV軌道を表すために利用され、制御ポイントの制約の厳格な施行を通じて厳密な安全保証が達成されます。
その後、空間的なデカップリングと制約線形化を介した一連のQP-LPサブ問題が導き出されます。
最後に、ガイダンス勾配を組み込んだ反復最適化戦略を使用して、さまざまなシナリオで高性能UAV軌跡を取得します。
シミュレーションと実世界の実験結果の両方が、安全で高速な軌跡を生成する際の提案された最適化フレームワークの効率と高性能を検証します。
ソースコードは、https://hitsz-mas.github.io/stormでコミュニティリファレンスのためにリリースされます

要約(オリジナル)

Efficient and safe trajectory planning plays a critical role in the application of quadrotor unmanned aerial vehicles. Currently, the inherent trade-off between constraint compliance and computational efficiency enhancement in UAV trajectory optimization problems has not been sufficiently addressed. To enhance the performance of UAV trajectory optimization, we propose a spatial-temporal iterative optimization framework. Firstly, B-splines are utilized to represent UAV trajectories, with rigorous safety assurance achieved through strict enforcement of constraints on control points. Subsequently, a set of QP-LP subproblems via spatial-temporal decoupling and constraint linearization is derived. Finally, an iterative optimization strategy incorporating guidance gradients is employed to obtain high-performance UAV trajectories in different scenarios. Both simulation and real-world experimental results validate the efficiency and high-performance of the proposed optimization framework in generating safe and fast trajectories. Our source codes will be released for community reference at https://hitsz-mas.github.io/STORM

arxiv情報

著者 Jinhao Zhang,Zhexuan Zhou,Wenlong Xia,Youmin Gong,Jie Mei
発行日 2025-03-05 08:11:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | STORM: Spatial-Temporal Iterative Optimization for Reliable Multicopter Trajectory Generation はコメントを受け付けていません

SCORE: Saturated Consensus Relocalization in Semantic Line Maps

要約

これは、IEEE/RSJ IROS 2025に提出されたペーパーのARXIVバージョンです。3Dラインをコンパクトマップ表現として意味的にラベル付けするシーンに依存して軽量の視覚再局在化フレームワークを提案します。
私たちのフレームワークでは、ロボットは単一の画像をキャプチャし、2Dラインを抽出し、マップ内の意味的に類似した3D行に関連付け、堅牢なPerspective-n-Lineの問題を解決することにより、それ自体をローカライズします。
セマンティックマッチングの1対多くのあいまいさによって引き起こされる非常に高い異常な比率〜(99.5 \%を超える)に対処するために、飽和コンセンサスの最大化〜(SAT-CM)定式化を導入します。
さらに、策定されたSAT-CM問題に対する高速グローバルソルバーを提案し、厳密なインターバル分析結果を活用して、精度と計算効率の両方を確保します。
さらに、Posed Depth Imagesを使用してセマンティック3Dラインマップを構築するためのパイプラインを開発します。
堅牢な推定と実用的なエンジニアリングの洞察に革新を統合するフレームワークの有効性を検証するために、Scannet ++データセットで広範な実験を実施します。

要約(オリジナル)

This is the arxiv version for our paper submitted to IEEE/RSJ IROS 2025. We propose a scene-agnostic and light-weight visual relocalization framework that leverages semantically labeled 3D lines as a compact map representation. In our framework, the robot localizes itself by capturing a single image, extracting 2D lines, associating them with semantically similar 3D lines in the map, and solving a robust perspective-n-line problem. To address the extremely high outlier ratios~(exceeding 99.5\%) caused by one-to-many ambiguities in semantic matching, we introduce the Saturated Consensus Maximization~(Sat-CM) formulation, which enables accurate pose estimation when the classic Consensus Maximization framework fails. We further propose a fast global solver to the formulated Sat-CM problems, leveraging rigorous interval analysis results to ensure both accuracy and computational efficiency. Additionally, we develop a pipeline for constructing semantic 3D line maps using posed depth images. To validate the effectiveness of our framework, which integrates our innovations in robust estimation and practical engineering insights, we conduct extensive experiments on the ScanNet++ dataset.

arxiv情報

著者 Haodong Jiang,Xiang Zheng,Yanglin Zhang,Qingcheng Zeng,Yiqian Li,Ziyang Hong,Junfeng Wu
発行日 2025-03-05 08:13:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SCORE: Saturated Consensus Relocalization in Semantic Line Maps はコメントを受け付けていません

Learning Perceptive Humanoid Locomotion over Challenging Terrain

要約

ヒューマノイドロボットは、人間のような移動と知覚能力を必要とする人間に遭遇するものに似た地形をナビゲートするように設計されています。
現在、ヒューマノイド運動の最も信頼性の高いコントローラーは、頑丈な地形に対処するときに危険で信頼できない信頼である固有受容にのみ依存しています。
高さマップを知覚に統合すると、プロアクティブな歩行計画が可能になりますが、この情報の堅牢な利用は、特に外観の知覚がうるさい場合、依然として重要な課題のままです。
これらの課題を乗り越えるために、教師と学生の蒸留フレームワークに基づいた解決策を提案します。
このパラダイムでは、Oracleポリシーはノイズのないデータにアクセスして最適な参照ポリシーを確立しますが、学生ポリシーは教師の行動を模倣するだけでなく、同時にセンサーの除去と状態の推定用の変分情報ボトルネックを使用して世界モデルを訓練します。
広範な評価は、私たちのアプローチが信頼できない地形の推定を特徴とするシナリオのパフォーマンスを著しく向上させることを示しています。
さらに、私たちは挑戦的な都市環境とオフロード環境の両方で厳格なテストを実施しました。モデルは、外部介入なしに2 kmのさまざまな地形を正常に通過しました。

要約(オリジナル)

Humanoid robots are engineered to navigate terrains akin to those encountered by humans, which necessitates human-like locomotion and perceptual abilities. Currently, the most reliable controllers for humanoid motion rely exclusively on proprioception, a reliance that becomes both dangerous and unreliable when coping with rugged terrain. Although the integration of height maps into perception can enable proactive gait planning, robust utilization of this information remains a significant challenge, especially when exteroceptive perception is noisy. To surmount these challenges, we propose a solution based on a teacher-student distillation framework. In this paradigm, an oracle policy accesses noise-free data to establish an optimal reference policy, while the student policy not only imitates the teacher’s actions but also simultaneously trains a world model with a variational information bottleneck for sensor denoising and state estimation. Extensive evaluations demonstrate that our approach markedly enhances performance in scenarios characterized by unreliable terrain estimations. Moreover, we conducted rigorous testing in both challenging urban settings and off-road environments, the model successfully traverse 2 km of varied terrain without external intervention.

arxiv情報

著者 Wandong Sun,Baoshi Cao,Long Chen,Yongbo Su,Yang Liu,Zongwu Xie,Hong Liu
発行日 2025-03-05 08:21:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Learning Perceptive Humanoid Locomotion over Challenging Terrain はコメントを受け付けていません

Trajectory Prediction for Autonomous Driving: Progress, Limitations, and Future Directions

要約

自動運転車が最新の交通システムに大規模に統合される可能性が成長し続けるため、動的環境での安全なナビゲーションがスムーズな統合に重要であることを保証します。
安全性を保証し、衝突を防ぐために、自動運転車は周囲の交通エージェントの軌跡を正確に予測できる必要があります。
過去10年間、学界と産業の両方からの重要な努力は、正確な軌跡予測のためのソリューションの設計に専念してきました。
これらの取り組みは、さまざまなアプローチを生み出し、これらの方法の違いと、軌跡予測の課題が完全に対処されているかどうかについて疑問を投げかけています。
このペーパーでは、最近の軌道予測方法のかなりの部分をレビューし、既存のソリューションを分類するための分類法を考案します。
予測パイプラインの一般的な概要も提供され、入力と出力のモダリティ、モデリング機能、および文献で説明されている予測パラダイムをカバーしています。
さらに、このペーパーでは、軌道予測内のアクティブな研究分野について説明し、提起された研究の質問に対処し、残りの研究のギャップと課題を強調しています。

要約(オリジナル)

As the potential for autonomous vehicles to be integrated on a large scale into modern traffic systems continues to grow, ensuring safe navigation in dynamic environments is crucial for smooth integration. To guarantee safety and prevent collisions, autonomous vehicles must be capable of accurately predicting the trajectories of surrounding traffic agents. Over the past decade, significant efforts from both academia and industry have been dedicated to designing solutions for precise trajectory forecasting. These efforts have produced a diverse range of approaches, raising questions about the differences between these methods and whether trajectory prediction challenges have been fully addressed. This paper reviews a substantial portion of recent trajectory prediction methods and devises a taxonomy to classify existing solutions. A general overview of the prediction pipeline is also provided, covering input and output modalities, modeling features, and prediction paradigms discussed in the literature. In addition, the paper discusses active research areas within trajectory prediction, addresses the posed research questions, and highlights the remaining research gaps and challenges.

arxiv情報

著者 Nadya Abdel Madjid,Abdulrahman Ahmad,Murad Mebrahtu,Yousef Babaa,Abdelmoamen Nasser,Sumbal Malik,Bilal Hassan,Naoufel Werghi,Jorge Dias,Majid Khonji
発行日 2025-03-05 08:38:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | Trajectory Prediction for Autonomous Driving: Progress, Limitations, and Future Directions はコメントを受け付けていません

Supervised Visual Docking Network for Unmanned Surface Vehicles Using Auto-labeling in Real-world Water Environments

要約

無人の表面車両(USV)は、環境モニタリングや河川マップモデリングなどの水道事業にますます適用されています。
ポートまたはステーションでの正確な自律ドッキングを達成する上で重要な課題に直面していますが、USVSのループからの人間の展開の可能性を最終的に制限する精度と安全性のために、遠隔の人間のコントロールまたは外部ポジショニングシステムに依存しています。
まず、相対ポーズと画像ペアをデータセットに追加する自動ラベルデータ収集パイプラインを設計しました。
このステップでは、監視された学習のために従来の手動ラベルを必要としません。
第二に、ニューラルドックのポーズ推定器(NDPE)は、手作りの機能エンジニアリング、カメラのキャリブレーション、および周辺マーカーを必要とせずに相対的なドックポーズ予測を達成するために提案されています。
さらに、NDPEは、現実世界の水環境での相対的なドックポーズを正確に予測でき、位置ベースの視覚サーボ(PBV)と低レベルのモーションコントローラーの実装を促進し、効率的かつ自律的なドッキングを実施しています。
提案されたソリューションの有効性は、実際の自律的なドッキングタスクを処理する能力を反映して、実際の水環境でテストおよび検証されています。

要約(オリジナル)

Unmanned Surface Vehicles (USVs) are increasingly applied to water operations such as environmental monitoring and river-map modeling. It faces a significant challenge in achieving precise autonomous docking at ports or stations, still relying on remote human control or external positioning systems for accuracy and safety which limits the full potential of human-out-of-loop deployment for USVs.This paper introduces a novel supervised learning pipeline with the auto-labeling technique for USVs autonomous visual docking. Firstly, we designed an auto-labeling data collection pipeline that appends relative pose and image pair to the dataset. This step does not require conventional manual labeling for supervised learning. Secondly, the Neural Dock Pose Estimator (NDPE) is proposed to achieve relative dock pose prediction without the need for hand-crafted feature engineering, camera calibration, and peripheral markers. Moreover, The NDPE can accurately predict the relative dock pose in real-world water environments, facilitating the implementation of Position-Based Visual Servo (PBVS) and low-level motion controllers for efficient and autonomous docking.Experiments show that the NDPE is robust to the disturbance of the distance and the USV velocity. The effectiveness of our proposed solution is tested and validated in real-world water environments, reflecting its capability to handle real-world autonomous docking tasks.

arxiv情報

著者 Yijie Chu,Ziniu Wu,Yong Yue,Eng Gee Lim,Paolo Paoletti,Xiaohui Zhu
発行日 2025-03-05 09:07:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Supervised Visual Docking Network for Unmanned Surface Vehicles Using Auto-labeling in Real-world Water Environments はコメントを受け付けていません

Navigating Intelligence: A Survey of Google OR-Tools and Machine Learning for Global Path Planning in Autonomous Vehicles

要約

私たちは、ロミーという名前の自律的なマイニングサンプリングロボットである無人の地上車両のグローバルパス計画(GPP)の新しい詳細な調査を提供しています。
GPPは、Romieの最適なパフォーマンスに不可欠です。これは、移動セールスマンの問題を解決することに変換されます。これは、マイニングフィールドのすべてのサンプリング場所をカバーするための最も効果的なルートを決定するために重要な複雑なグラフ理論の課題です。
この問題は、コストと時間を最適化することにより、ロミーの運用効率と人間の労働に対する競争力を高めるための中心です。
この研究の主な目的は、費用効率の高いソフトウェアとWebアプリケーションを開発、評価、改善することにより、GPPを前進させることです。
Google Operations Research(OR)-Tools Optimization Algorithmsの広範な比較と分析を掘り下げています。
私たちの研究は、補強学習技術を初めて統合することにより、OR-Tools機能の限界を適用およびテストするという目標によって推進されています。
これにより、これらの方法をOR-Toolsと比較し、計算効果と現実世界のアプリケーション効率を評価できます。
私たちの分析は、各手法の有効性と実用的な応用に関する洞察を提供しようとしています。
私たちの調査結果は、Q学習が最適な戦略として際立っていることを示しており、データセット全体の最適なソリューションから平均で1.2%のみを逸脱することにより、優れた効率を実証しています。

要約(オリジナル)

We offer a new in-depth investigation of global path planning (GPP) for unmanned ground vehicles, an autonomous mining sampling robot named ROMIE. GPP is essential for ROMIE’s optimal performance, which is translated into solving the traveling salesman problem, a complex graph theory challenge that is crucial for determining the most effective route to cover all sampling locations in a mining field. This problem is central to enhancing ROMIE’s operational efficiency and competitiveness against human labor by optimizing cost and time. The primary aim of this research is to advance GPP by developing, evaluating, and improving a cost-efficient software and web application. We delve into an extensive comparison and analysis of Google operations research (OR)-Tools optimization algorithms. Our study is driven by the goal of applying and testing the limits of OR-Tools capabilities by integrating Reinforcement Learning techniques for the first time. This enables us to compare these methods with OR-Tools, assessing their computational effectiveness and real-world application efficiency. Our analysis seeks to provide insights into the effectiveness and practical application of each technique. Our findings indicate that Q-Learning stands out as the optimal strategy, demonstrating superior efficiency by deviating only 1.2% on average from the optimal solutions across our datasets.

arxiv情報

著者 Alexandre Benoit,Pedram Asef
発行日 2025-03-05 10:12:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CE, cs.RO, eess.SP | Navigating Intelligence: A Survey of Google OR-Tools and Machine Learning for Global Path Planning in Autonomous Vehicles はコメントを受け付けていません

Direct Sparse Odometry with Continuous 3D Gaussian Maps for Indoor Environments

要約

正確なローカリゼーションは、自律ナビゲーションなどのロボット工学および拡張現実アプリケーションに不可欠です。
以前のマップを組み合わせたビジョンベースの方法は、LIDARレベルの精度をカメラコスト効率と堅牢なポーズ推定を統合することを目的としています。
ただし、既存のアプローチは、離散ポイントクラウドマップを密な画像ピクセルに関連付ける場合、信頼性の低い補間手順に依存します。
連続した3Dガウスマップを使用して、単眼の視覚臭気フレームワークを提案します。これは、補間なしで抽出されたすべての高勾配ポイントに幾何学的に一貫した深さ値を直接割り当てます。
2つのパブリックデータセットの評価は、既存の方法と比較して優れた追跡精度を示しています。
コミュニティの開発のために、この作業のソースコードをリリースしました。

要約(オリジナル)

Accurate localization is essential for robotics and augmented reality applications such as autonomous navigation. Vision-based methods combining prior maps aim to integrate LiDAR-level accuracy with camera cost efficiency for robust pose estimation. Existing approaches, however, often depend on unreliable interpolation procedures when associating discrete point cloud maps with dense image pixels, which inevitably introduces depth errors and degrades pose estimation accuracy. We propose a monocular visual odometry framework utilizing a continuous 3D Gaussian map, which directly assigns geometrically consistent depth values to all extracted high-gradient points without interpolation. Evaluations on two public datasets demonstrate superior tracking accuracy compared to existing methods. We have released the source code of this work for the development of the community.

arxiv情報

著者 Jie Deng,Fengtian Lang,Zikang Yuan,Xin Yang
発行日 2025-03-05 10:49:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Direct Sparse Odometry with Continuous 3D Gaussian Maps for Indoor Environments はコメントを受け付けていません

ARS548_ros. An ARS 548 RDI radar driver for ROS

要約

ARS 548 RDIレーダーは、デジタルビーム形成を提供する新しいRFアンテナアレイを備えた77 GHzの長距離レーダーセンサーの第5世代のプレミアムモデルです。
このレーダーは、新しい周波数変調を伴うパルス圧縮に基づいて、1つの測定サイクルに反射装置のないオブジェクトの距離、速度、角度を独立して測定します。
残念ながら、私たちの知る限り、ユーザーがセンサーによって取得されたデータを分析できるようにLinuxシステムが利用できるオープンソースドライバーはありません。
このペーパーでは、ARS 548 RDIセンサーのデータを解釈し、ロボットオペレーティングシステムバージョン1および2(ROSおよびROS2)で利用できるようにするドライバーを紹介します。
したがって、これらのデータは、ROSが提供する強力なツールを使用して、保存、表現、分析することができます。
さらに、ドライバーは、各オブジェクトの相対的な推定速度と加速度、その方向、角速度など、センサーが提供する高度なオブジェクト機能を提供します。
センサーの構成と、そのフィルタリングおよび表現ツールを含むドライバーの使用に焦点を当てます。
また、構成プロセスを支援するビデオチュートリアルを提供しています。
最後に、このセンサーとOSTER OS1-32 LIDARセンサーで取得したデータセットがベースライン測定を行い、ユーザーがドライバーの正確性を確認できるようにします。

要約(オリジナル)

The ARS 548 RDI Radar is a premium model of the fifth generation of 77 GHz long range radar sensors with new RF antenna arrays, which offer digital beam forming. This radar measures independently the distance, speed and angle of objects without any reflectors in one measurement cycle based on Pulse Compression with New Frequency Modulation. Unfortunately, to the best of our knowledge, there are no open source drivers available for Linux systems to enable users to analyze the data acquired by the sensor. In this paper, we present a driver that can interpret the data from the ARS 548 RDI sensor and make it available over the Robot Operating System versions 1 and 2 (ROS and ROS2). Thus, these data can be stored, represented, and analyzed using the powerful tools offered by ROS. Besides, our driver offers advanced object features provided by the sensor, such as relative estimated velocity and acceleration of each object, its orientation and angular velocity. We focus on the configuration of the sensor and the use of our driver including its filtering and representation tools. Besides, we offer a video tutorial to help in its configuration process. Finally, a dataset acquired with this sensor and an Ouster OS1-32 LiDAR sensor, to have baseline measurements, is available, so that the user can check the correctness of our driver.

arxiv情報

著者 Fernando Fernández-Calatayud,Lucía Coto-Elena,David Alejo,José J. Carpio-Jiménez,Fernando Caballero,Luis Merino
発行日 2025-03-05 10:53:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | ARS548_ros. An ARS 548 RDI radar driver for ROS はコメントを受け付けていません

REACT: Real-time Efficient Attribute Clustering and Transfer for Updatable 3D Scene Graph

要約

現代の自律ロボットには、洗練されたタスクを実行するために高レベルのマップ表現が必要です。
最近、3Dシーングラフ(3DSG)が、従来のグリッドマップの有望な代替手段として浮上し、効率的なメモリの使用と豊富な機能表現をブレンドしています。
ただし、それらを適用するためのほとんどの努力は、静的な世界に限定されています。
この作業では、リアルタイム属性クラスタリングを効率的に実行し、3DSGでオブジェクトノードを再局在させるフレームワークであるReactを紹介します。
Reactは、トリプレットの損失でトレーニングされた埋め込みモデルを使用して、オブジェクトインスタンスを比較するための新しい方法を採用し、インスタンスのクラスタリングとマッチングを促進します。
実験結果は、Reactが計算効率を維持しながらオブジェクトを再局在させることができることを示しています。
React Frameworkのソースコードは、オープンソースプロジェクトとして利用可能になり、再利用可能で更新可能な3DSGのさらなる進歩を促進します。

要約(オリジナル)

Modern-day autonomous robots need high-level map representations to perform sophisticated tasks. Recently, 3D scene graphs (3DSGs) have emerged as a promising alternative to traditional grid maps, blending efficient memory use and rich feature representation. However, most efforts to apply them have been limited to static worlds. This work introduces REACT, a framework that efficiently performs real-time attribute clustering and transfer to relocalize object nodes in a 3DSG. REACT employs a novel method for comparing object instances using an embedding model trained on triplet loss, facilitating instance clustering and matching. Experimental results demonstrate that REACT is able to relocalize objects while maintaining computational efficiency. The REACT framework’s source code will be available as an open-source project, promoting further advancements in reusable and updatable 3DSGs.

arxiv情報

著者 Phuoc Nguyen,Francesco Verdoja,Ville Kyrki
発行日 2025-03-05 11:43:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | REACT: Real-time Efficient Attribute Clustering and Transfer for Updatable 3D Scene Graph はコメントを受け付けていません

Efficient Submap-based Autonomous MAV Exploration using Visual-Inertial SLAM Configurable for LiDARs or Depth Cameras

要約

不明な空間の自律的な調査は、現実の世界でのモバイルロボットの展開に不可欠なコンポーネントです。
安全なナビゲーションは、すべてのロボット工学アプリケーションにとって重要であり、ロボットの周囲の正確で一貫したマップが必要です。
完全な自律性を達成し、さまざまな環境での展開を可能にするために、ロボットは、時間の経過とともに漂流する傾向がある搭載された状態の推定に依存する必要があります。
ローカルサブマップに基づいたマイクロエリアルビークル(MAV)探査フレームワークを提案して、相対サブマップポーズにループクロージャー補正を適用することにより、グローバルな一貫性を保持できるようにします。
大規模な探査を可能にするために、地元のサブマップフロンティアからグローバルな環境全体のフロンティアを効率的に計算し、サンプリングベースの次のベストビュー探索プランナーを使用します。
この方法は、LIDARセンサーまたは深度カメラのいずれかを使用してシームレスにサポートし、さまざまな種類のMAVプラットフォームに適しています。
私たちは、アプローチの効率と再構成の質を紹介するために、最先端のサブマップベースの探索フレームワークに対してシミュレーションの比較評価を実行します。
最後に、リダーを装備し、もう1つは深さカメラを備えた実世界のMavに方法の適用性を示します。
ビデオはhttps://youtu.be/uf5fwmycuq4で入手可能です。

要約(オリジナル)

Autonomous exploration of unknown space is an essential component for the deployment of mobile robots in the real world. Safe navigation is crucial for all robotics applications and requires accurate and consistent maps of the robot’s surroundings. To achieve full autonomy and allow deployment in a wide variety of environments, the robot must rely on on-board state estimation which is prone to drift over time. We propose a Micro Aerial Vehicle (MAV) exploration framework based on local submaps to allow retaining global consistency by applying loop-closure corrections to the relative submap poses. To enable large-scale exploration we efficiently compute global, environment-wide frontiers from the local submap frontiers and use a sampling-based next-best-view exploration planner. Our method seamlessly supports using either a LiDAR sensor or a depth camera, making it suitable for different kinds of MAV platforms. We perform comparative evaluations in simulation against a state-of-the-art submap-based exploration framework to showcase the efficiency and reconstruction quality of our approach. Finally, we demonstrate the applicability of our method to real-world MAVs, one equipped with a LiDAR and the other with a depth camera. Video available at https://youtu.be/Uf5fwmYcuq4 .

arxiv情報

著者 Sotiris Papatheodorou,Simon Boche,Sebastián Barbas Laina,Stefan Leutenegger
発行日 2025-03-05 12:17:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Efficient Submap-based Autonomous MAV Exploration using Visual-Inertial SLAM Configurable for LiDARs or Depth Cameras はコメントを受け付けていません