要約
大規模言語モデル(LLM)は、微妙な文脈の関係、推論、複雑な問題解決を捉えることができる。大規模な情報を処理し解釈する能力を活用することで、LLMは自律走行システムを含むドメイン固有の課題に対処する可能性を示している。本稿では、生成された運転シナリオのリスクを考慮した分析にLLMを活用する新しいフレームワークを提案する。我々は、LLMが自律走行テストシミュレータによって生成された運転シナリオがセーフティクリティカルであるかどうかを効果的に評価できるという仮説を立てる。この仮説を検証するために、このタスクを実行する際のLLMの有効性を評価する実証評価を行った。また、このフレームワークは、既存の非クリティカルシナリオを修正し、運動計画アルゴリズムの検証における有効性をテストするために、敵対的手法を用いて新しいセーフティクリティカルシナリオを生成するためのフィードバックを提供する。コードとシナリオはhttps://github.com/yuangao-tum/Riskaware-Scenario-analyse。
要約(オリジナル)
Large Language Models (LLMs) can capture nuanced contextual relationships, reasoning, and complex problem-solving. By leveraging their ability to process and interpret large-scale information, LLMs have shown potential to address domain-specific challenges, including those in autonomous driving systems. This paper proposes a novel framework that leverages LLMs for risk-aware analysis of generated driving scenarios. We hypothesize that LLMs can effectively evaluate whether driving scenarios generated by autonomous driving testing simulators are safety-critical. To validate this hypothesis, we conducted an empirical evaluation to assess the effectiveness of LLMs in performing this task. This framework will also provide feedback to generate the new safety-critical scenario by using adversarial method to modify existing non-critical scenarios and test their effectiveness in validating motion planning algorithms. Code and scenarios are available at: https://github.com/yuangao-tum/Riskaware-Scenario-analyse
arxiv情報
著者 | Yuan Gao,Mattia Piccinini,Johannes Betz |
発行日 | 2025-02-04 09:19:13+00:00 |
arxivサイト | arxiv_id(pdf) |