要約
都市環境の変更領域を検出および更新するために特別に設計された最初のシーンアップデートの空中パス計画アルゴリズムを提示します。
大規模な3D都市シーンの再構成の既存の方法は、高い精度と完全性を達成することに焦点を当てていますが、それらは多くの場合、シーン全体を再調査および再構築し、変更されていないエリアでかなりの時間とリソースを無駄にするため、定期的な更新を必要とするシナリオにとっては非効率的です。
この制限に対処するために、当社の方法は、以前の再構成を活用し、確率統計を変更して、UAVが変更される可能性のある領域を検出および焦点を合わせることを導きます。
私たちのアプローチでは、変化の可能性を評価するための新しい変化の可能性ヒューリスティックを導入し、2つの飛行経路の計画を促進します。静的事前層によって通知される以前のパスと、新しく検出された変化に適応する動的なリアルタイムパスです。
このフレームワークは、表面サンプリングと候補ビュー生成戦略を統合し、最小限の冗長性で変化領域の効率的なカバレッジを確保します。
実世界の都市データセットでの広範な実験は、この方法が飛行時間と計算オーバーヘッドを大幅に短縮し、フルシーンの再探索と再構築に匹敵する高品質の更新を維持することを示しています。
これらの貢献は、複雑な都市環境での効率的でスケーラブルで適応性のあるUAVベースのシーンの更新への道を開きます。
要約(オリジナル)
We present the first scene-update aerial path planning algorithm specifically designed for detecting and updating change areas in urban environments. While existing methods for large-scale 3D urban scene reconstruction focus on achieving high accuracy and completeness, they are inefficient for scenarios requiring periodic updates, as they often re-explore and reconstruct entire scenes, wasting significant time and resources on unchanged areas. To address this limitation, our method leverages prior reconstructions and change probability statistics to guide UAVs in detecting and focusing on areas likely to have changed. Our approach introduces a novel changeability heuristic to evaluate the likelihood of changes, driving the planning of two flight paths: a prior path informed by static priors and a dynamic real-time path that adapts to newly detected changes. The framework integrates surface sampling and candidate view generation strategies, ensuring efficient coverage of change areas with minimal redundancy. Extensive experiments on real-world urban datasets demonstrate that our method significantly reduces flight time and computational overhead, while maintaining high-quality updates comparable to full-scene re-exploration and reconstruction. These contributions pave the way for efficient, scalable, and adaptive UAV-based scene updates in complex urban environments.
arxiv情報
著者 | Mingfeng Tang,Ningna Wang,Ziyuan Xie,Jianwei Hu,Ke Xie,Xiaohu Guo,Hui Huang |
発行日 | 2025-05-13 13:43:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google