要約
自動運転のためのセマンティック鳥瞰図セグメンテーションに関する現在の研究は、単一のデータセット (通常は nuScenes) を使用してニューラル ネットワーク モデルを最適化することだけに焦点を当てています。
この慣行は、異なる環境やセンサー設定に直面したときに失敗する可能性がある高度に特殊化されたモデルの開発につながります。これはドメイン シフトとして知られる問題です。
このペーパーでは、最先端の BEV セグメンテーション モデルの包括的なデータセット間評価を実施し、さまざまなトレーニングおよびテスト データセットとセットアップ、およびさまざまなセマンティック カテゴリにわたるパフォーマンスを評価します。
私たちは、カメラや LiDAR などのさまざまなセンサーが、さまざまな条件やシナリオに一般化するモデルの能力に及ぼす影響を調査します。
さらに、単一データセット トレーニングと比較してモデルの BEV セグメンテーション パフォーマンスを向上させるマルチ データセット トレーニング実験を実施します。
私たちの取り組みは、クロスデータセット検証における BEV セグメンテーション モデルの評価におけるギャップに対処しています。
そして、私たちの調査結果は、自動運転アプリケーション向けのより堅牢で信頼性の高い BEV セグメンテーション アプローチを確保するために、モデルの一般化性と適応性を強化することの重要性を強調しています。
この論文のコードは https://github.com/manueldiaz96/beval で入手できます。
要約(オリジナル)
Current research in semantic bird’s-eye view segmentation for autonomous driving focuses solely on optimizing neural network models using a single dataset, typically nuScenes. This practice leads to the development of highly specialized models that may fail when faced with different environments or sensor setups, a problem known as domain shift. In this paper, we conduct a comprehensive cross-dataset evaluation of state-of-the-art BEV segmentation models to assess their performance across different training and testing datasets and setups, as well as different semantic categories. We investigate the influence of different sensors, such as cameras and LiDAR, on the models’ ability to generalize to diverse conditions and scenarios. Additionally, we conduct multi-dataset training experiments that improve models’ BEV segmentation performance compared to single-dataset training. Our work addresses the gap in evaluating BEV segmentation models under cross-dataset validation. And our findings underscore the importance of enhancing model generalizability and adaptability to ensure more robust and reliable BEV segmentation approaches for autonomous driving applications. The code for this paper available at https://github.com/manueldiaz96/beval .
arxiv情報
著者 | Manuel Alejandro Diaz-Zapata,Wenqian Liu,Robin Baruffa,Christian Laugier |
発行日 | 2024-09-05 07:47:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google