SACA: A Scenario-Aware Collision Avoidance Framework for Autonomous Vehicles Integrating LLMs-Driven Reasoning

要約

極端な状況下での信頼できる衝突回避は、自動運転車にとって依然として重要な課題です。
大規模な言語モデル(LLM)は有望な推論能力を提供しますが、安全性の高い回避操作への適用は、遅延と堅牢性の問題によって制限されます。
それでも、LLMSは、感情的、法的、倫理的要因を比較検討する能力で際立っており、社会的責任と文脈を意識した衝突回避を可能にします。
このペーパーでは、予測シナリオの評価、データ駆動型の推論、およびシナリオと衝突回避の意思決定を改善するために、予測シナリオの評価、データ駆動型の推論、シナリオ – プレービューベースの展開を統合することにより、極端な状況のためのシナリオ認識衝突回避(SACA)フレームワークを提案します。
SACAは3つの重要なコンポーネントで構成されています。
まず、予測シナリオ分析モジュールは、障害物の到達可能性分析と運動意図予測を利用して、包括的な状況プロンプトを構築します。
第二に、オンライン推論モジュールは、以前の衝突回避知識を活用し、シナリオデータを微調整することにより、意思決定を改善します。
第三に、オフライン評価モジュールはパフォーマンスを評価し、メモリバンクのシナリオを保存します。
さらに、事前計算されたポリシー方法により、シナリオのプレビューと類似性と信頼レベルに基づいてポリシーを取得または推論することにより、展開性が向上します。
実際の車両テストは、ベースラインの方法と比較して、SACAが極端な高リスクシナリオで衝突損失を効果的に減らし、複雑な条件下での誤トリガーを低下させることを示しています。
プロジェクトページ:https://sean-shiyuez.github.io/saca/。

要約(オリジナル)

Reliable collision avoidance under extreme situations remains a critical challenge for autonomous vehicles. While large language models (LLMs) offer promising reasoning capabilities, their application in safety-critical evasive maneuvers is limited by latency and robustness issues. Even so, LLMs stand out for their ability to weigh emotional, legal, and ethical factors, enabling socially responsible and context-aware collision avoidance. This paper proposes a scenario-aware collision avoidance (SACA) framework for extreme situations by integrating predictive scenario evaluation, data-driven reasoning, and scenario-preview-based deployment to improve collision avoidance decision-making. SACA consists of three key components. First, a predictive scenario analysis module utilizes obstacle reachability analysis and motion intention prediction to construct a comprehensive situational prompt. Second, an online reasoning module refines decision-making by leveraging prior collision avoidance knowledge and fine-tuning with scenario data. Third, an offline evaluation module assesses performance and stores scenarios in a memory bank. Additionally, A precomputed policy method improves deployability by previewing scenarios and retrieving or reasoning policies based on similarity and confidence levels. Real-vehicle tests show that, compared with baseline methods, SACA effectively reduces collision losses in extreme high-risk scenarios and lowers false triggering under complex conditions. Project page: https://sean-shiyuez.github.io/SACA/.

arxiv情報

著者 Shiyue Zhao,Junzhi Zhang,Neda Masoud,Heye Huang,Xiaohui Hou,Chengkun He
発行日 2025-06-11 03:34:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク