An End-to-End Collaborative Learning Approach for Connected Autonomous Vehicles in Occluded Scenarios

要約

協調ナビゲーションは、独立した運転ポリシーが衝突につながる可能性が高い自動運転の閉塞シナリオの状況では不可欠になります。
この問題に対処するための有望なアプローチの 1 つは、車車間 (V2V) ネットワークを使用することです。これにより、近くのエージェントと認識情報を共有して、壊滅的な事故を防ぐことができます。
この記事では、圧縮された LiDAR 機能を共有し、安全で効率的なナビゲーション ポリシーをトレーニングするために近接ポリシー最適化を採用するための、V2V ネットワークに基づく協調制御方法を提案します。
専門家データ (動作クローン作成) に依存する以前のアプローチとは異なり、私たちが提案するアプローチは、帯域幅の制限を効果的に満たしながら、遮蔽された環境での経験からマルチエージェント ポリシーを直接学習します。
提案された方法では、まず LiDAR 点群データを事前に取得して、畳み込みニューラル ネットワークを通じて意味のある特徴を取得し、それを近くの CAV と共有して潜在的に危険な状況を警告します。
提案手法を評価するために、CARLA 自動運転シミュレーターに基づいて、エージェント間でのリアルタイムのデータ共有を可能にする遮蔽交差点ジム環境を開発しました。
我々の実験結果は、我々の協調制御手法が独立強化学習手法や協調早期融合手法よりも一貫して優れていることを示しています。

要約(オリジナル)

Collaborative navigation becomes essential in situations of occluded scenarios in autonomous driving where independent driving policies are likely to lead to collisions. One promising approach to address this issue is through the use of Vehicle-to-Vehicle (V2V) networks that allow for the sharing of perception information with nearby agents, preventing catastrophic accidents. In this article, we propose a collaborative control method based on a V2V network for sharing compressed LiDAR features and employing Proximal Policy Optimisation to train safe and efficient navigation policies. Unlike previous approaches that rely on expert data (behaviour cloning), our proposed approach learns the multi-agent policies directly from experience in the occluded environment, while effectively meeting bandwidth limitations. The proposed method first prepossesses LiDAR point cloud data to obtain meaningful features through a convolutional neural network and then shares them with nearby CAVs to alert for potentially dangerous situations. To evaluate the proposed method, we developed an occluded intersection gym environment based on the CARLA autonomous driving simulator, allowing real-time data sharing among agents. Our experimental results demonstrate the consistent superiority of our collaborative control method over an independent reinforcement learning method and a cooperative early fusion method.

arxiv情報

著者 Leandro Parada,Hanlin Tian,Jose Escribano,Panagiotis Angeloudis
発行日 2024-12-11 17:30:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO パーマリンク