Performance-driven Constrained Optimal Auto-Tuner for MPC

要約

モデル予測制御(MPC)コスト関数パラメーターの調整における重要な課題は、システムのパフォーマンスが一貫して特定のしきい値を上回ることを保証することです。
この課題に対処するために、MPC用の最適な最適な自動チューナーの新しい方法であるCoat-MPCを提案します。
チューニングごとに、Coat-MPCはパフォーマンスデータを収集し、その事後信念を更新することで学習します。
目標指向の方法で楽観的なパラメーターに向けたチューニングパラメーターのドメインを調査します。これは、サンプル効率の鍵です。
理論的には、Coat-MPCを分析し、常に任意の高い確率でパフォーマンスの制約を満たし、有限の時間内に最適なパフォーマンスに収束することを示します。
包括的なシミュレーションとハードウェアプラットフォームとの比較分析により、古典的なベイジアン最適化(BO)およびその他の最先端の方法と比較して、COAT-MPCの有効性を実証します。
自律的なレースに適用されると、私たちのアプローチは、制約違反と時間の経過に伴う累積的な後悔の観点からベースラインよりも優れています。

要約(オリジナル)

A key challenge in tuning Model Predictive Control (MPC) cost function parameters is to ensure that the system performance stays consistently above a certain threshold. To address this challenge, we propose a novel method, COAT-MPC, Constrained Optimal Auto-Tuner for MPC. With every tuning iteration, COAT-MPC gathers performance data and learns by updating its posterior belief. It explores the tuning parameters’ domain towards optimistic parameters in a goal-directed fashion, which is key to its sample efficiency. We theoretically analyze COAT-MPC, showing that it satisfies performance constraints with arbitrarily high probability at all times and provably converges to the optimum performance within finite time. Through comprehensive simulations and comparative analyses with a hardware platform, we demonstrate the effectiveness of COAT-MPC in comparison to classical Bayesian Optimization (BO) and other state-of-the-art methods. When applied to autonomous racing, our approach outperforms baselines in terms of constraint violations and cumulative regret over time.

arxiv情報

著者 Albert Gassol Puigjaner,Manish Prajapat,Andrea Carron,Andreas Krause,Melanie N. Zeilinger
発行日 2025-03-10 09:56:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク