Learning the References of Online Model Predictive Control for Urban Self-Driving

要約

この研究では、自動運転車の運動合成のための新しい学習ベースのオンライン モデル予測制御 (MPC) フレームワークを提案します。
このフレームワークでは、決定変数はオンライン MPC のコスト関数を調整するための瞬時の参照として生成され、衝突回避と走行可能な路面境界の制約が潜在的にソフト形式で表現されます。
したがって、自車両の具体化された操作は、他の交通参加者のモデル化されていない不確実性があっても、複雑で動的な交通環境に適応することができます。
さらに、ポリシー検索用の深層強化学習 (DRL) フレームワークを実装して、ステップ アクションを決定変数としてキャストします。ここでは、実用的で軽量な観察がポリシー ネットワークの入力特徴として考慮されます。
提案されたアプローチは、複合複雑な都市走行シナリオを含む高忠実度シミュレーターに実装され、その結果は、提案された開発が複雑で動的な交通環境に85%の成功率で顕著な適応性を示すことを示しています。
また、安全性、操作性、堅牢性の面での利点も説明されています。

要約(オリジナル)

In this work, we propose a novel learning-based online model predictive control (MPC) framework for motion synthesis of self-driving vehicles. In this framework, the decision variables are generated as instantaneous references to modulate the cost functions of online MPC, where the constraints of collision avoidance and drivable surface boundaries are latently represented in the soft form. Hence, the embodied maneuvers of the ego vehicle are empowered to adapt to complex and dynamic traffic environments, even with unmodeled uncertainties of other traffic participants. Furthermore, we implement a deep reinforcement learning (DRL) framework for policy search to cast the step actions as the decision variables, where the practical and lightweight observations are considered as the input features of the policy network. The proposed approach is implemented in the high-fidelity simulator involving compound-complex urban driving scenarios, and the results demonstrate that the proposed development manifests remarkable adaptiveness to complex and dynamic traffic environments with a success rate of 85%. Also, its advantages in terms of safety, maneuverability, and robustness are illustrated.

arxiv情報

著者 Yubin Wang,Zengqi Peng,Hakim Ghazzai,Jun Ma
発行日 2023-08-30 07:23:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク