Deep RL-based Autonomous Navigation of Micro Aerial Vehicles (MAVs) in a complex GPS-denied Indoor Environment

要約

屋内環境における無人航空機(UAV)の自律性は、倉庫、工場、屋内施設などの囲まれたスペースに信頼できるGPSシグナルがないため、大きな課題をもたらします。
マイクロエアリアルビークル(MAV)は、これらの複雑でGPSが除去したシナリオをナビゲートするために好まれます。これは、敏ility性、低電力消費、および限られた計算機能のためです。
この論文では、計算効率を改善することでリアルタイムナビゲーションを強化するために、強化学習に基づく深部近位政策最適化(D-PPO)アルゴリズムを提案します。
エンドツーエンドのネットワークは、Unreal Engineを使用して作成された3Dリアルなメタ環境でトレーニングされています。
これらの訓練されたメタ重量により、MAVシステムは、実際の屋内環境で広範な実験試験を受けました。
結果は、提案された方法が、パフォーマンスを大幅に分解することなく、トレーニング期間中に計算遅延を91 \%減らすことを示しています。
アルゴリズムはDJI Telloドローンでテストされ、同様の結果が得られました。

要約(オリジナル)

The Autonomy of Unmanned Aerial Vehicles (UAVs) in indoor environments poses significant challenges due to the lack of reliable GPS signals in enclosed spaces such as warehouses, factories, and indoor facilities. Micro Aerial Vehicles (MAVs) are preferred for navigating in these complex, GPS-denied scenarios because of their agility, low power consumption, and limited computational capabilities. In this paper, we propose a Reinforcement Learning based Deep-Proximal Policy Optimization (D-PPO) algorithm to enhance realtime navigation through improving the computation efficiency. The end-to-end network is trained in 3D realistic meta-environments created using the Unreal Engine. With these trained meta-weights, the MAV system underwent extensive experimental trials in real-world indoor environments. The results indicate that the proposed method reduces computational latency by 91\% during training period without significant degradation in performance. The algorithm was tested on a DJI Tello drone, yielding similar results.

arxiv情報

著者 Amit Kumar Singh,Prasanth Kumar Duba,P. Rajalakshmi
発行日 2025-04-08 11:14:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク