要約
この研究では、都市自動運転の動作計画と制御のための新しい学習ベースのモデル予測制御 (MPC) フレームワークを提案します。
このフレームワークでは、オンライン MPC の瞬間基準とコスト関数が、オラクルやトラフィックの予測状態に依存することなく、生のセンサー データから学習されます。
さらに、運転の安全条件は、学習可能な瞬間基準ベクトルの導入によって潜在的にエンコードされます。
特に、ポリシー検索用の深層強化学習 (DRL) フレームワークを実装します。このフレームワークでは、実用的で軽量な生の観測値が処理されてトラフィックを推論し、オンライン MPC に瞬時の参照を提供します。
提案されたアプローチは高忠実度シミュレータで検証され、そこでの開発は複雑で動的なトラフィックに対する顕著な適応性を示しています。
さらに、提案されたフレームワークのさまざまな現実世界のアプリケーションにおける一般化可能性を評価するために、シミュレーションからリアルへの展開も行われます。
また、オープンソース コードとビデオ デモンストレーションをプロジェクト Web サイト (https://latent-mpc.github.io/) で提供しています。
要約(オリジナル)
In this work, we propose a novel learning-based model predictive control (MPC) framework for motion planning and control of urban self-driving. In this framework, instantaneous references and cost functions of online MPC are learned from raw sensor data without relying on any oracle or predicted states of traffic. Moreover, driving safety conditions are latently encoded via the introduction of a learnable instantaneous reference vector. In particular, we implement a deep reinforcement learning (DRL) framework for policy search, where practical and lightweight raw observations are processed to reason about the traffic and provide the online MPC with instantaneous references. The proposed approach is validated in a high-fidelity simulator, where our development manifests remarkable adaptiveness to complex and dynamic traffic. Furthermore, sim-to-real deployments are also conducted to evaluate the generalizability of the proposed framework in various real-world applications. Also, we provide the open-source code and video demonstrations at the project website: https://latent-mpc.github.io/.
arxiv情報
著者 | Yubin Wang,Zengqi Peng,Yusen Xie,Yulin Li,Hakim Ghazzai,Jun Ma |
発行日 | 2024-02-28 17:31:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google