要約
自動運転の進展に伴い、動作計画やナビゲーション時の安全確保がますます重要になっています。
ただし、ほとんどのエンドツーエンドの計画方法には安全性の欠如があります。
この研究は、制約付きマルコフ決定プロセス (CMDP) として定式化された自動運転の制御最適化問題における安全性の問題に取り組んでいます。
我々は、条件付きのバリューアットリスクベースのソフトアクタークリティックを利用して、複雑な高次元の状態空間における制約を効果的に管理する、ポリシー最適化のための新しいモデルベースのアプローチを提案します。
私たちの手法では、最悪の場合のアクターを導入して安全な探査をガイドし、予測不可能なシナリオでも安全要件の厳格な順守を保証します。
ポリシーの最適化では、拡張ラグランジアン法を採用し、潜在拡散モデルを活用して将来の軌道を予測およびシミュレーションします。
この二重のアプローチは、環境を安全に移動するのに役立つだけでなく、環境の不確実性を考慮して分布モデリングを統合することによって政策のパフォーマンスを改善します。
シミュレーション環境と実際の環境の両方で実施された実証評価により、当社のアプローチが安全性、効率性、意思決定能力の点で既存の方法よりも優れていることが実証されています。
要約(オリジナル)
With the advancement of autonomous driving, ensuring safety during motion planning and navigation is becoming more and more important. However, most end-to-end planning methods suffer from a lack of safety. This research addresses the safety issue in the control optimization problem of autonomous driving, formulated as Constrained Markov Decision Processes (CMDPs). We propose a novel, model-based approach for policy optimization, utilizing a conditional Value-at-Risk based Soft Actor Critic to manage constraints in complex, high-dimensional state spaces effectively. Our method introduces a worst-case actor to guide safe exploration, ensuring rigorous adherence to safety requirements even in unpredictable scenarios. The policy optimization employs the Augmented Lagrangian method and leverages latent diffusion models to predict and simulate future trajectories. This dual approach not only aids in navigating environments safely but also refines the policy’s performance by integrating distribution modeling to account for environmental uncertainties. Empirical evaluations conducted in both simulated and real environment demonstrate that our approach outperforms existing methods in terms of safety, efficiency, and decision-making capabilities.
arxiv情報
著者 | Detian Chu,Linyuan Bai,Jianuo Huang,Zhenlong Fang,Peng Zhang,Wei Kang |
発行日 | 2024-07-16 17:07:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google