Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied Scenarios

要約

過酷な条件下では全地球航法衛星システム(GNSS)からの信号を受信できないため、無人航空機(UAV)の正確で堅牢なナビゲーションを実現することは困難な課題である。近年、ビジョンベースのナビゲーションがGNSSベースのナビゲーションに代わる有望かつ実現可能な選択肢として浮上してきました。しかし、既存のビジョンベースの技術は、環境擾乱や不正確な位置予測によって引き起こされる飛行偏差に対処するには不十分である。本論文では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処するための、新しい角度ロバストネスナビゲーションパラダイムを提示する。さらに、高精度ナビゲーションのための方向角度を正確に予測するために、適応的特徴強調モジュール、交差知識注意誘導モジュール、ロバストタスク指向ヘッドモジュールを含むモデルを提案する。ビジョンベースのナビゲーション手法を評価するために、UAV_AR368と呼ばれる新しいデータセットを収集する。さらに、Google Earthを用いたシミュレーション飛行試験装置(SFTI)を設計し、様々な飛行環境をシミュレートすることで、実飛行試験にかかる費用を削減する。実験の結果、提案モデルは、理想的な環境下と妨害された環境下において、それぞれ26.0%と45.6%の到着成功率の向上を達成し、最先端技術を凌駕することが実証された。

要約(オリジナル)

Due to the inability to receive signals from the Global Navigation Satellite System (GNSS) in extreme conditions, achieving accurate and robust navigation for Unmanned Aerial Vehicles (UAVs) is a challenging task. Recently emerged, vision-based navigation has been a promising and feasible alternative to GNSS-based navigation. However, existing vision-based techniques are inadequate in addressing flight deviation caused by environmental disturbances and inaccurate position predictions in practical settings. In this paper, we present a novel angle robustness navigation paradigm to deal with flight deviation in point-to-point navigation tasks. Additionally, we propose a model that includes the Adaptive Feature Enhance Module, Cross-knowledge Attention-guided Module and Robust Task-oriented Head Module to accurately predict direction angles for high-precision navigation. To evaluate the vision-based navigation methods, we collect a new dataset termed as UAV_AR368. Furthermore, we design the Simulation Flight Testing Instrument (SFTI) using Google Earth to simulate different flight environments, thereby reducing the expenses associated with real flight testing. Experiment results demonstrate that the proposed model outperforms the state-of-the-art by achieving improvements of 26.0% and 45.6% in the success rate of arrival under ideal and disturbed circumstances, respectively.

arxiv情報

著者 Yuxin Wang,Zunlei Feng,Haofei Zhang,Yang Gao,Jie Lei,Li Sun,Mingli Song
発行日 2024-02-04 08:41:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク