Accelerating the Evolution of Personalized Automated Lane Change through Lesson Learning

要約

高度なドライバー支援システムの広範な採用には、パーソナライズが重要です。
各ユーザーの好みに合わせて、オンライン進化機能は必須です。
ただし、従来の進化方法は、多くのコンピューティングパワーを必要とする自然主義的な運転データから学習し、オンラインで適用できません。
この課題に対処するために、このペーパーでは、レッスン学習アプローチを提案します。ドライバーの買収介入からの学習です。
オンラインテイクオーバーデータを活用することにより、駆動ゾーンが生成され、ガウス判別分析を使用して知覚される安全性を確保します。
軌跡計画の報酬に対するリアルタイムの修正は、見習い学習を通じて制定されます。
運転ゾーンの制約内で報酬を最適化する目的に導かれたこのアプローチは、軌道計画のためにモデル予測制御を採用しています。
このレッスン学習のフレームワークは、そのより速い進化能力、経験の蓄積の熟練度、知覚された安全性の保証、および計算効率のために強調されています。
シミュレーション結果は、提案されたシステムが、さらに買収介入なしにカスタマイズを成功させることを一貫して達成することを示しています。
蓄積された経験により、進化効率が24%増加します。
学習反復の平均数はわずか13.8です。
平均計算時間は0.08秒です。

要約(オリジナル)

Personalization is crucial for the widespread adoption of advanced driver assistance system. To match up with each user’s preference, the online evolution capability is a must. However, conventional evolution methods learn from naturalistic driving data, which requires a lot computing power and cannot be applied online. To address this challenge, this paper proposes a lesson learning approach: learning from driver’s takeover interventions. By leveraging online takeover data, the driving zone is generated to ensure perceived safety using Gaussian discriminant analysis. Real-time corrections to trajectory planning rewards are enacted through apprenticeship learning. Guided by the objective of optimizing rewards within the constraints of the driving zone, this approach employs model predictive control for trajectory planning. This lesson learning framework is highlighted for its faster evolution capability, adeptness at experience accumulating, assurance of perceived safety, and computational efficiency. Simulation results demonstrate that the proposed system consistently achieves a successful customization without further takeover interventions. Accumulated experience yields a 24% enhancement in evolution efficiency. The average number of learning iterations is only 13.8. The average computation time is 0.08 seconds.

arxiv情報

著者 Jia Hu,Mingyue Lei,Haoran Wang,Zeyu Liu,Fan Yang
発行日 2025-05-30 07:05:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク