要約
環境予測フレームワークは自動運転車に不可欠であり、動的な環境での安全なナビゲーションを可能にします。
LiDAR で生成された占有グリッド マップ (L-OGM) は、一般的に使用される軌道予測フレームワークとは異なり、手動のラベル付けに頼ることなく、共同シーンの予測を容易にする堅牢な鳥瞰図シーン表現を提供します。
従来のアプローチでは、グリッド セル空間で直接、決定論的な L-OGM 予測アーキテクチャが最適化されていました。
これらの方法は予測においてある程度の成功を収めていますが、非現実的で不正確な予測に直面することがあります。
私たちは、予測占有グリッドの品質と現実性は、生成モデルを使用することで強化できると主張しています。
我々は、占有予測を表現学習と学習された潜在空間内の確率的予測に分離するフレームワークを提案します。
私たちのアプローチでは、RGB カメラや高解像度マップなど、他の利用可能なセンサー モダリティに基づいてモデルを調整できます。
私たちのアプローチが最先端のパフォーマンスを達成し、現実世界の NuScenes、Waymo Open、および実験車両プラットフォームで収集したカスタム データセット上のさまざまなロボット プラットフォーム間で容易に転送できることを実証します。
要約(オリジナル)
Environment prediction frameworks are integral for autonomous vehicles, enabling safe navigation in dynamic environments. LiDAR generated occupancy grid maps (L-OGMs) offer a robust bird’s eye-view scene representation that facilitates joint scene predictions without relying on manual labeling unlike commonly used trajectory prediction frameworks. Prior approaches have optimized deterministic L-OGM prediction architectures directly in grid cell space. While these methods have achieved some degree of success in prediction, they occasionally grapple with unrealistic and incorrect predictions. We claim that the quality and realism of the forecasted occupancy grids can be enhanced with the use of generative models. We propose a framework that decouples occupancy prediction into: representation learning and stochastic prediction within the learned latent space. Our approach allows for conditioning the model on other available sensor modalities such as RGB-cameras and high definition maps. We demonstrate that our approach achieves state-of-the-art performance and is readily transferable between different robotic platforms on the real-world NuScenes, Waymo Open, and a custom dataset we collected on an experimental vehicle platform.
arxiv情報
著者 | Bernard Lange,Masha Itkina,Mykel J. Kochenderfer |
発行日 | 2023-08-21 21:47:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google