Personalized Autonomous Driving with Large Language Models: Field Experiments

要約

大規模言語モデル (LLM) を自動運転車に統合すると、AI システムとの会話が可能になり、車両を運転できるようになります。
ただし、このようなシステムがコマンドを正確に理解し、ドライバーや乗客の好みに長期間にわたって適応するためのより高度なパーソナライゼーションを実現するという要件も強調しています。
この論文では、LLM ベースのフレームワークである Talk2Drive を紹介します。Talk2Drive は、自然な口頭コマンドを実行可能なコントロールに変換し、提案されたメモリ モジュールを使用して安全性、効率性、快適さに関する個人の好みを満たす方法を学習できます。
これは、現実世界の自動運転車に LLM を導入する、この種では初めてのマルチシナリオのフィールド実験です。
実験では、提案されたシステムが、「もっと速く運転できますか」のような直接的なコマンドから「今、本当に急いでいます」のような間接的なコマンドに至るまで、さまざまな直感レベルで人間の意図を理解できることが示されました。
さらに、乗っ取り率を使用して、LLM ベースの自動運転システムに対する人間のドライバーの信頼を定量化します。Talk2Drive は、高速道路、交差点、および駐車場のシナリオでの乗っ取り率を大幅に削減します。
また、提案されたメモリ モジュールが個人の好みを考慮しており、メモリ モジュールなしのメモリ モジュールと比較して占有率が最大 65.2% までさらに低下することも検証します。
実験ビデオは https://www.youtube.com/watch?v=4BWsfPaq1Ro でご覧いただけます。

要約(オリジナル)

Integrating large language models (LLMs) in autonomous vehicles enables conversation with AI systems to drive the vehicle. However, it also emphasizes the requirement for such systems to comprehend commands accurately and achieve higher-level personalization to adapt to the preferences of drivers or passengers over a more extended period. In this paper, we introduce an LLM-based framework, Talk2Drive, capable of translating natural verbal commands into executable controls and learning to satisfy personal preferences for safety, efficiency, and comfort with a proposed memory module. This is the first-of-its-kind multi-scenario field experiment that deploys LLMs on a real-world autonomous vehicle. Experiments showcase that the proposed system can comprehend human intentions at different intuition levels, ranging from direct commands like ‘can you drive faster’ to indirect commands like ‘I am really in a hurry now’. Additionally, we use the takeover rate to quantify the trust of human drivers in the LLM-based autonomous driving system, where Talk2Drive significantly reduces the takeover rate in highway, intersection, and parking scenarios. We also validate that the proposed memory module considers personalized preferences and further reduces the takeover rate by up to 65.2% compared with those without a memory module. The experiment video can be watched at https://www.youtube.com/watch?v=4BWsfPaq1Ro

arxiv情報

著者 Can Cui,Zichong Yang,Yupeng Zhou,Yunsheng Ma,Juanwu Lu,Lingxi Li,Yaobin Chen,Jitesh Panchal,Ziran Wang
発行日 2024-05-08 17:24:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク