要約
データ駆動型モデル予測制御(MPC)は、モデルの不確実性の存在下でロボット制御性能を改善する重要な可能性を実証しています。
ただし、既存のアプローチでは、広範なオフラインデータ収集と計算集中トレーニングが必要であることが多く、オンラインで適応する能力が制限されます。
これらの課題に対処するために、このペーパーでは、モデルに依存しないメタラーニング(MAML)と統合されたニューラルネットワークを活用する高速オンライン適応MPCフレームワークを紹介します。
私たちのアプローチは、最小限のオンラインデータとグラデーションステップを使用して、公称システムの動作と真のシステム動作の矛盾を捉える残留ダイナミクスの少数のショット適応に焦点を当てています。
これらのメタ学習された残差モデルを計算効率の良いL4CasadiベースのMPCパイプラインに埋め込むことにより、提案された方法により、迅速なモデル補正が可能になり、予測精度が向上し、リアルタイムの制御パフォーマンスが向上します。
ファンデルポールオシレーター、カートポールシステム、および2D四角体に関するシミュレーション研究を通じてフレームワークを検証します。
結果は、新たに初期化されたニューラルネットワークで拡張された、名目MPCと公称MPCの両方にわたって適応速度と予測精度が大幅に向上し、リアルタイム適応ロボット制御のアプローチの有効性を強調しています。
要約(オリジナル)
Data-driven model predictive control (MPC) has demonstrated significant potential for improving robot control performance in the presence of model uncertainties. However, existing approaches often require extensive offline data collection and computationally intensive training, limiting their ability to adapt online. To address these challenges, this paper presents a fast online adaptive MPC framework that leverages neural networks integrated with Model-Agnostic Meta-Learning (MAML). Our approach focuses on few-shot adaptation of residual dynamics – capturing the discrepancy between nominal and true system behavior – using minimal online data and gradient steps. By embedding these meta-learned residual models into a computationally efficient L4CasADi-based MPC pipeline, the proposed method enables rapid model correction, enhances predictive accuracy, and improves real-time control performance. We validate the framework through simulation studies on a Van der Pol oscillator, a Cart-Pole system, and a 2D quadrotor. Results show significant gains in adaptation speed and prediction accuracy over both nominal MPC and nominal MPC augmented with a freshly initialized neural network, underscoring the effectiveness of our approach for real-time adaptive robot control.
arxiv情報
著者 | Yu Mei,Xinyu Zhou,Shuyang Yu,Vaibhav Srivastava,Xiaobo Tan |
発行日 | 2025-04-24 01:59:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google