Driving from Vision through Differentiable Optimal Control

要約

本論文では、DriViDOC: Driving from Vision through Differentiable Optimal Controlのフレームワークと、人間のデモから自律走行制御を学習するためのその応用を提案する。DriViDOCは、制約充足などの非線形モデル予測制御(NMPC)の特性と、カメラフレームからの関連特徴の自動推論を組み合わせる。我々のアプローチは、パラメトリックNMPCの微分可能性を活用し、画像から制御までの運転モデルのエンドツーエンドの学習を可能にする。このモデルは、モーションベースのドライビングシミュレータ上で収集された様々な人間のデモンストレーションからなるオフラインデータセットで学習される。オンラインテストでは、モデルがさまざまな運転スタイルの模倣に成功し、解釈されたNMPCパラメータから特定の運転行動の達成に関する洞察が得られます。我々の実験結果は、DriViDOCがNMPCとニューラルネットワークを含む他の手法を凌駕し、模倣スコアにおいて平均20%の改善を示したことを示しています。

要約(オリジナル)

This paper proposes DriViDOC: a framework for Driving from Vision through Differentiable Optimal Control, and its application to learn autonomous driving controllers from human demonstrations. DriViDOC combines the automatic inference of relevant features from camera frames with the properties of nonlinear model predictive control (NMPC), such as constraint satisfaction. Our approach leverages the differentiability of parametric NMPC, allowing for end-to-end learning of the driving model from images to control. The model is trained on an offline dataset comprising various human demonstrations collected on a motion-base driving simulator. During online testing, the model demonstrates successful imitation of different driving styles, and the interpreted NMPC parameters provide insights into the achievement of specific driving behaviors. Our experimental results show that DriViDOC outperforms other methods involving NMPC and neural networks, exhibiting an average improvement of 20% in imitation scores.

arxiv情報

著者 Flavia Sofia Acerbo,Jan Swevers,Tinne Tuytelaars,Tong Duy Son
発行日 2024-09-02 15:13:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク