要約
この論文では、強化学習 (RL) を使用してクアッドコプター コントローラーの制御ゲインを適応させる手法を紹介します。
具体的には、近接ポリシー最適化 (PPO) を使用して、実行中のカスケード フィードバック コントローラーのゲインを適応させるポリシーをトレーニングしました。
このコントローラーの主な目的は、指定された軌道をたどる際の追跡エラーを最小限に抑えることです。
この論文の主な目的は、適応ゲイン ポリシーの有効性を分析し、積分二乗誤差と積分時間二乗誤差が指標として使用される静的ゲイン制御アルゴリズムのパフォーマンスと比較することです。
結果は、適応ゲイン スキームが静的ゲイン コントローラーと比較してトラッキング エラーを 40$\%$ 以上減少させることを示しています。
要約(オリジナル)
The paper presents a technique using reinforcement learning (RL) to adapt the control gains of a quadcopter controller. Specifically, we employed Proximal Policy Optimization (PPO) to train a policy which adapts the gains of a cascaded feedback controller in-flight. The primary goal of this controller is to minimize tracking error while following a specified trajectory. The paper’s key objective is to analyze the effectiveness of the adaptive gain policy and compare it to the performance of a static gain control algorithm, where the Integral Squared Error and Integral Time Squared Error are used as metrics. The results show that the adaptive gain scheme achieves over 40$\%$ decrease in tracking error as compared to the static gain controller.
arxiv情報
著者 | Mike Timmerman,Aryan Patel,Tim Reinhart |
発行日 | 2024-03-12 00:08:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google