要約
ナビゲーションの精度、速度、安定性は、動的な環境での安全な無人航空機 (UAV) 飛行操縦と効果的な飛行ミッションの実行にとって非常に重要です。
さまざまな飛行ミッションには、エネルギー消費の最小化、正確な位置決めの達成、速度の最大化など、さまざまな目的がある場合があります。
さまざまな目的にその場で適応できるコントローラーは非常に価値があります。
比例積分微分 (PID) コントローラーは、ドローンやその他の制御システムで最も一般的で広く使用されている制御アルゴリズムの 1 つですが、その線形制御アルゴリズムでは、動的な風の状態や複雑なドローン システムの非線形の性質を捉えることができません。
さまざまなミッションに合わせて PID ゲインを手動で調整するには時間がかかり、高度な専門知識が必要です。
この論文は、近接ポリシー最適化 (PPO) を使用して強化された比例積分微分 (PID) ドローン コントローラーである非線形深層強化学習 (DRL) である AirPilot を紹介することにより、ドローンの飛行制御に革命を起こすことを目的としています。
AirPilot コントローラーは、従来の PID 制御のシンプルさと有効性を、DRL の適応性、学習機能、最適化の可能性と組み合わせています。
これにより、環境が動的で、ミッション固有のパフォーマンス要求が高い最新のドローン アプリケーションにより適しています。
私たちは、シミュレーター内で DRL エージェントをトレーニングするために COEX Clover 自律型ドローンを採用し、それを現実世界のラボ設定に実装しました。これは、DRL ベースのフライト コントローラーを実際のドローンに適用する最初の試みの 1 つとして重要なマイルストーンとなります。
Airpilot は、デフォルトの PX4 PID 位置コントローラのナビゲーション エラーを 90% 削減し、微調整された PID コントローラの実効ナビゲーション速度を 21% 向上させ、整定時間とオーバーシュートをそれぞれ 17% と 16% 削減することができます。
要約(オリジナル)
Navigation precision, speed and stability are crucial for safe Unmanned Aerial Vehicle (UAV) flight maneuvers and effective flight mission executions in dynamic environments. Different flight missions may have varying objectives, such as minimizing energy consumption, achieving precise positioning, or maximizing speed. A controller that can adapt to different objectives on the fly is highly valuable. Proportional Integral Derivative (PID) controllers are one of the most popular and widely used control algorithms for drones and other control systems, but their linear control algorithm fails to capture the nonlinear nature of the dynamic wind conditions and complex drone system. Manually tuning the PID gains for various missions can be time-consuming and requires significant expertise. This paper aims to revolutionize drone flight control by presenting the AirPilot, a nonlinear Deep Reinforcement Learning (DRL) – enhanced Proportional Integral Derivative (PID) drone controller using Proximal Policy Optimization (PPO). AirPilot controller combines the simplicity and effectiveness of traditional PID control with the adaptability, learning capability, and optimization potential of DRL. This makes it better suited for modern drone applications where the environment is dynamic, and mission-specific performance demands are high. We employed a COEX Clover autonomous drone for training the DRL agent within the simulator and implemented it in a real-world lab setting, which marks a significant milestone as one of the first attempts to apply a DRL-based flight controller on an actual drone. Airpilot is capable of reducing the navigation error of the default PX4 PID position controller by 90%, improving effective navigation speed of a fine-tuned PID controller by 21%, reducing settling time and overshoot by 17% and 16% respectively.
arxiv情報
著者 | Junyang Zhang,Cristian Emanuel Ocampo Rivera,Kyle Tyni,Steven Nguyen,Ulices Santa Cruz Leal,Yasser Shoukry |
発行日 | 2024-08-23 00:37:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google