RangeViT: Towards Vision Transformers for 3D Semantic Segmentation in Autonomous Driving

要約

屋外の LiDAR 点群のセマンティック セグメンテーションを 2D 問題としてキャストすること (たとえば、距離投影を介して) は、効果的で一般的なアプローチです。
これらの投影ベースの方法は、通常、高速計算の恩恵を受け、他の点群表現を使用する技術と組み合わせると、最先端の結果を達成します。
現在、投影ベースの方法は 2D CNN を活用していますが、コンピューター ビジョンの最近の進歩は、ビジョン トランスフォーマー (ViT) が多くの画像ベースのベンチマークで最先端の結果を達成したことを示しています。
この作業では、3D セマンティック セグメンテーションの射影ベースの方法が、ViT のこれらの最新の改善から恩恵を受けることができるかどうかを疑問視しています。
私たちは肯定的に答えますが、それらを次の 3 つの主要な要素と組み合わせた後でのみです。
RGB 画像と同じバックボーン アーキテクチャを維持することで、点群よりもはるかに安価に取得して注釈を付けることができる、大規模な画像コレクションでの長いトレーニングからの知識を活用できます。
大規模な画像データセットで事前トレーニング済みの ViT を使用すると、最高の結果が得られます。
(b) 従来の線形埋め込み層を調整された畳み込みステムに置き換えることにより、ViT の誘導バイアスの欠如を補償します。
(c) 畳み込みデコーダーと畳み込みステムからのスキップ接続を使用してピクセル単位の予測を改良し、畳み込みステムの低レベルだがきめの細かい機能を ViT エンコーダーの高レベルだが粗い予測と組み合わせます。
これらの要素を使用して、RangeViT と呼ばれる私たちの方法が、nuScenes と SemanticKITTI での既存の射影ベースの方法よりも優れていることを示します。
https://github.com/valeoai/rangevit で実装コードを提供しています。

要約(オリジナル)

Casting semantic segmentation of outdoor LiDAR point clouds as a 2D problem, e.g., via range projection, is an effective and popular approach. These projection-based methods usually benefit from fast computations and, when combined with techniques which use other point cloud representations, achieve state-of-the-art results. Today, projection-based methods leverage 2D CNNs but recent advances in computer vision show that vision transformers (ViTs) have achieved state-of-the-art results in many image-based benchmarks. In this work, we question if projection-based methods for 3D semantic segmentation can benefit from these latest improvements on ViTs. We answer positively but only after combining them with three key ingredients: (a) ViTs are notoriously hard to train and require a lot of training data to learn powerful representations. By preserving the same backbone architecture as for RGB images, we can exploit the knowledge from long training on large image collections that are much cheaper to acquire and annotate than point clouds. We reach our best results with pre-trained ViTs on large image datasets. (b) We compensate ViTs’ lack of inductive bias by substituting a tailored convolutional stem for the classical linear embedding layer. (c) We refine pixel-wise predictions with a convolutional decoder and a skip connection from the convolutional stem to combine low-level but fine-grained features of the the convolutional stem with the high-level but coarse predictions of the ViT encoder. With these ingredients, we show that our method, called RangeViT, outperforms existing projection-based methods on nuScenes and SemanticKITTI. We provide the implementation code at https://github.com/valeoai/rangevit.

arxiv情報

著者 Angelika Ando,Spyros Gidaris,Andrei Bursuc,Gilles Puy,Alexandre Boulch,Renaud Marlet
発行日 2023-01-24 18:50:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク