Transformer-based Model Predictive Control: Trajectory Optimization via Sequence Modeling

要約

モデル予測制御 (MPC) は、制約付き制御の主要な方法論としての地位を確立しており、現実世界のさまざまなシナリオで汎用ロボットの自律性を実現します。
ただし、対象となるほとんどの問題では、MPC は高度に非凸の軌道最適化問題の再帰的解法に依存しているため、計算が非常に複雑になり、初期化に強く依存します。
この研究では、MPC の最適化ベースの手法と学習ベースの手法の主な長所を組み合わせる統合フレームワークを紹介します。
私たちのアプローチでは、軌道生成の最適化プロセス内に大容量のトランスフォーマー ベースのニューラル ネットワーク モデルを埋め込む必要があります。これにより、トランスフォーマーは、非凸最適化問題に対して最適に近い初期推測、つまりターゲット プランを提供します。
私たちの実験は、シミュレーションとフリー フライヤー プラットフォーム上の現実世界で実行され、MPC の収束と実行時間を改善するフレームワークの機能を実証しています。
純粋な最適化ベースのアプローチと比較して、このアプローチは、パフォーマンスを損なうことなく、軌道生成パフォーマンスを最大 75% 向上させ、ソルバーの反復回数を最大 45% 削減し、全体的な MPC ランタイムを 7 倍改善できることが結果からわかります。

要約(オリジナル)

Model predictive control (MPC) has established itself as the primary methodology for constrained control, enabling general-purpose robot autonomy in diverse real-world scenarios. However, for most problems of interest, MPC relies on the recursive solution of highly non-convex trajectory optimization problems, leading to high computational complexity and strong dependency on initialization. In this work, we present a unified framework to combine the main strengths of optimization-based and learning-based methods for MPC. Our approach entails embedding high-capacity, transformer-based neural network models within the optimization process for trajectory generation, whereby the transformer provides a near-optimal initial guess, or target plan, to a non-convex optimization problem. Our experiments, performed in simulation and the real world onboard a free flyer platform, demonstrate the capabilities of our framework to improve MPC convergence and runtime. Compared to purely optimization-based approaches, results show that our approach can improve trajectory generation performance by up to 75%, reduce the number of solver iterations by up to 45%, and improve overall MPC runtime by 7x without loss in performance.

arxiv情報

著者 Davide Celestini,Daniele Gammelli,Tommaso Guffanti,Simone D’Amico,Elisa Capello,Marco Pavone
発行日 2024-10-31 13:23:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, math.OC パーマリンク