Combining Policy Gradient and Safety-Based Control for Autonomous Driving

要約

データ駆動型技術の進歩により、継続的な制御の課題への対処がより効率的になりました。
ただし、これらの方法は履歴データに依存しているため、新しいシナリオでは予期しない決定が行われる可能性があります。
自動運転と衝突回避のパフォーマンスを向上させるために、政策勾配と安全ベースの制御の共生的融合を提案します。
この研究では、Deep Deterministic Policy Gradient (DDPG) アルゴリズムを使用して、周囲に車両がない場合の自動運転を可能にします。
安定した使い慣れた環境内で車両の運転方針をトレーニングすることにより、堅牢で効率的な学習プロセスが達成されます。
その後、人工ポテンシャル場アプローチを利用して、周囲の車両の存在を考慮した衝突回避アルゴリズムを定式化します。
さらに、パストラッキング方法にも細心の注意が払われています。
これらのアプローチを融合すると、さまざまなシナリオにわたって実質的なパフォーマンスが実証され、安全基準を維持しながら自動運転を進歩させる可能性が強調されます。

要約(オリジナル)

With the advancement of data-driven techniques, addressing continuous con-trol challenges has become more efficient. However, the reliance of these methods on historical data introduces the potential for unexpected decisions in novel scenarios. To enhance performance in autonomous driving and collision avoidance, we propose a symbiotic fusion of policy gradient with safety-based control. In this study, we em-ploy the Deep Deterministic Policy Gradient (DDPG) algorithm to enable autono-mous driving in the absence of surrounding vehicles. By training the vehicle’s driving policy within a stable and familiar environment, a robust and efficient learning pro-cess is achieved. Subsequently, an artificial potential field approach is utilized to formulate a collision avoidance algorithm, accounting for the presence of surround-ing vehicles. Furthermore, meticulous consideration is given to path tracking meth-ods. The amalgamation of these approaches demonstrates substantial performance across diverse scenarios, underscoring its potential for advancing autonomous driving while upholding safety standards.

arxiv情報

著者 Xi Xiong,Lu Liu
発行日 2023-10-20 07:06:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク