UAV Path Planning Employing MPC- Reinforcement Learning Method Considering Collision Avoidance

要約

この論文では、深層決定論に統合された長短期記憶 (LSTM) ネットワークに基づいて、モデル予測制御 (MPC) を設計することにより、複雑で不確実な環境における無人航空 (UA V) 経路計画の問題に取り組みます。
ポリシー勾配アルゴリズム。
提案されたソリューションでは、LSTM-MPC は DDPG ネットワーク内の決定論的ポリシーとして動作し、予測プールを活用して、予測された将来の状態とアクションを保存し、堅牢性と効率を向上させます。
予測プールを使用すると、批評家ネットワークの初期化も可能になり、従来の強化学習や深層強化学習手法と比較して、収束速度が向上し、失敗率が低下します。
提案されたソリューションの有効性は、数値シミュレーションによって評価されます。

要約(オリジナル)

In this paper, we tackle the problem of Unmanned Aerial (UA V) path planning in complex and uncertain environments by designing a Model Predictive Control (MPC), based on a Long-Short-Term Memory (LSTM) network integrated into the Deep Deterministic Policy Gradient algorithm. In the proposed solution, LSTM-MPC operates as a deterministic policy within the DDPG network, and it leverages a predicting pool to store predicted future states and actions for improved robustness and efficiency. The use of the predicting pool also enables the initialization of the critic network, leading to improved convergence speed and reduced failure rate compared to traditional reinforcement learning and deep reinforcement learning methods. The effectiveness of the proposed solution is evaluated by numerical simulations.

arxiv情報

著者 Mahya Ramezani,Hamed Habibi,Jose luis Sanchez Lopez,Holger Voos
発行日 2023-03-07 13:06:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク