AgentsCoDriver: Large Language Model Empowered Collaborative Driving with Lifelong Learning

要約

近年、コネクテッド運転と自動運転が急速に発展しています。
しかし、現在の自動運転システムは主にデータ駆動型のアプローチに基づいており、解釈可能性、一般化、および継続的な学習能力に欠陥があります。
さらに、単一車両の自動運転システムには、自動運転システムの安全性と効率性にとって重要な、他の車両との連携や交渉の機能が欠けています。
これらの問題に対処するために、私たちは大規模言語モデル (LLM) を活用して、複数の車両が協調運転を実行できるようにする新しいフレームワークである AgentsCoDriver を開発しました。
AgentsCoDriverは、観察モジュール、推論エンジン、認知記憶モジュール、強化反映モジュール、通信モジュールの5つのモジュールで構成されています。
環境と継続的に対話することで、時間の経過とともに知識、教訓、経験を蓄積することができ、それによって生涯学習が可能になります。
さらに、通信モジュールを活用することで、さまざまなエージェントが情報を交換し、複雑なトラフィック環境でのネゴシエーションやコラボレーションを実現できます。
広範な実験が実施され、AgentsCoDriver の優位性が示されています。

要約(オリジナル)

Connected and autonomous driving is developing rapidly in recent years. However, current autonomous driving systems, which are primarily based on data-driven approaches, exhibit deficiencies in interpretability, generalization, and continuing learning capabilities. In addition, the single-vehicle autonomous driving systems lack of the ability of collaboration and negotiation with other vehicles, which is crucial for the safety and efficiency of autonomous driving systems. In order to address these issues, we leverage large language models (LLMs) to develop a novel framework, AgentsCoDriver, to enable multiple vehicles to conduct collaborative driving. AgentsCoDriver consists of five modules: observation module, reasoning engine, cognitive memory module, reinforcement reflection module, and communication module. It can accumulate knowledge, lessons, and experiences over time by continuously interacting with the environment, thereby making itself capable of lifelong learning. In addition, by leveraging the communication module, different agents can exchange information and realize negotiation and collaboration in complex traffic environments. Extensive experiments are conducted and show the superiority of AgentsCoDriver.

arxiv情報

著者 Senkang Hu,Zhengru Fang,Zihan Fang,Xianhao Chen,Yuguang Fang
発行日 2024-04-09 14:33:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク