Learning from Visual Demonstrations through Differentiable Nonlinear MPC for Personalized Autonomous Driving

要約

人間のような自動運転コントローラーは、自動運転車に対する乗客の認識を高める可能性があります。
この論文では、微分可能な最適制御による視覚からの運転モデル​​である DriViDOC と、人間のデモンストレーションからパーソナライズされた自動運転コントローラーを学習するためのそのアプリケーションを提案します。
DriViDOC は、カメラ フレームからの関連する特徴の自動推論と、制約充足などの非線形モデル予測制御 (NMPC) のプロパティを組み合わせます。
私たちのアプローチはパラメトリック NMPC の微分可能性を活用し、画像から制御までの運転モデル​​のエンドツーエンドの学習を可能にします。
このモデルは、モーションベースの運転シミュレーターで収集されたさまざまな運転スタイルで構成されるオフライン データセットでトレーニングされます。
オンライン テスト中、モデルはさまざまな運転スタイルの模倣が成功していることを実証し、解釈された NMPC パラメーターは特定の運転行動の達成に関する洞察を提供します。
私たちの実験結果は、DriViDOC が NMPC やニューラル ネットワークを含む他の方法よりも優れたパフォーマンスを示し、模倣スコアで平均 20% の向上を示していることを示しています。

要約(オリジナル)

Human-like autonomous driving controllers have the potential to enhance passenger perception of autonomous vehicles. This paper proposes DriViDOC: a model for Driving from Vision through Differentiable Optimal Control, and its application to learn personalized autonomous driving controllers from human demonstrations. DriViDOC combines the automatic inference of relevant features from camera frames with the properties of nonlinear model predictive control (NMPC), such as constraint satisfaction. Our approach leverages the differentiability of parametric NMPC, allowing for end-to-end learning of the driving model from images to control. The model is trained on an offline dataset comprising various driving styles collected on a motion-base driving simulator. During online testing, the model demonstrates successful imitation of different driving styles, and the interpreted NMPC parameters provide insights into the achievement of specific driving behaviors. Our experimental results show that DriViDOC outperforms other methods involving NMPC and neural networks, exhibiting an average improvement of 20% in imitation scores.

arxiv情報

著者 Flavia Sofia Acerbo,Jan Swevers,Tinne Tuytelaars,Tong Duy Son
発行日 2024-07-08 07:48:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク