Uncertainty-Aware Safety-Critical Decision and Control for Autonomous Vehicles at Unsignalized Intersections

要約

強化学習(RL)は、自律運転(AD)決定タスクの可能性を実証しています。
ただし、特に交差シナリオで、都市の広告にRLを適用することは、依然として大きな課題に直面しています。
安全上の制約がないため、RLはリスクに対して脆弱になります。
さらに、認知的制限と環境のランダム性は、安全性の高いシナリオで信頼できない決定につながる可能性があります。
したがって、安全性を向上させるためにRLの決定に対する信頼を定量化することが不可欠です。
このホワイトペーパーでは、不確実な安全批判的な決定と制御(USDC)フレームワークを提案します。これは、リスク認識のアンサンブル分布RLを構築することによりリスク回避ポリシーを生成し、ポリシーの信頼性を定量化する不確実性を推定します。
その後、介入ポリシーを最小限に抑えながら、不確実性に基づいて制約を動的に強化するために、高次制御障壁機能(HOCBF)が安全フィルターとして採用されています。
アンサンブル批評家は、HOCBFとRLの両方のポリシーを評価し、安全性と柔軟な戦略を動的に切り替えるために不確実性を埋め込み、それによって安全性と効率性のバランスを取ります。
複数のタスクの署名されていない交差点のシミュレーションテストは、USDCがベースラインと比較して交通効率を維持しながら安全性を改善できることを示しています。

要約(オリジナル)

Reinforcement learning (RL) has demonstrated potential in autonomous driving (AD) decision tasks. However, applying RL to urban AD, particularly in intersection scenarios, still faces significant challenges. The lack of safety constraints makes RL vulnerable to risks. Additionally, cognitive limitations and environmental randomness can lead to unreliable decisions in safety-critical scenarios. Therefore, it is essential to quantify confidence in RL decisions to improve safety. This paper proposes an Uncertainty-aware Safety-Critical Decision and Control (USDC) framework, which generates a risk-averse policy by constructing a risk-aware ensemble distributional RL, while estimating uncertainty to quantify the policy’s reliability. Subsequently, a high-order control barrier function (HOCBF) is employed as a safety filter to minimize intervention policy while dynamically enhancing constraints based on uncertainty. The ensemble critics evaluate both HOCBF and RL policies, embedding uncertainty to achieve dynamic switching between safe and flexible strategies, thereby balancing safety and efficiency. Simulation tests on unsignalized intersections in multiple tasks indicate that USDC can improve safety while maintaining traffic efficiency compared to baselines.

arxiv情報

著者 Ran Yu,Zhuoren Li,Lu Xiong,Wei Han,Bo Leng
発行日 2025-05-26 13:06:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク