LENet: Lightweight And Efficient LiDAR Semantic Segmentation Using Multi-Scale Convolution Attention

要約

LiDAR セマンティック セグメンテーションは、車両にシーンの豊富な理解を提供できます。これは、ロボット工学と自動運転の認識システムに不可欠です。
この論文では、軽量で効率的な射影ベースのLiDARセマンティックセグメンテーションネットワークであるLENetを提案します。これは、エンコーダーデコーダーアーキテクチャを備えています。
エンコーダーは、マルチスケールの特徴マップをキャプチャするための単純な畳み込み注意モジュールである一連の MSCA モジュールで構成されます。
デコーダーは、双一次補間を使用して多重解像度の特徴マップをアップサンプリングする IAC モジュールと、以前と現在の次元の特徴を統合する単一の畳み込みレイヤーで構成されます。
IAC は非常に軽量で、複雑さとストレージ コストを大幅に削減します。
さらに、複数の補助セグメンテーション ヘッドを導入して、ネットワークの精度をさらに向上させます。
各コンポーネントが最終的なパフォーマンスにどのように寄与するかを示す詳細な定量実験を実施しました。
よく知られている公開ベンチマーク (SemanticKITTI) でアプローチを評価します。これは、提案された LENet が最先端のセマンティック セグメンテーション アプローチよりも軽量で効果的であることを示しています。

要約(オリジナル)

LiDAR semantic segmentation can provide vehicles with a rich understanding of scene, which is essential to the perception system in robotics and autonomous driving. In this paper, we propose LENet, a lightweight and efficient projection-based LiDAR semantic segmentation network, which has an encoder-decoder architecture. The encoder consists of a set of MSCA module, which is a simple convolutional attention module to capture multi-scale feature maps. The decoder consists of IAC module, which uses bilinear interpolation to upsample the multi-resolution feature maps and a single convolution layer to integrate the previous and current dimensional features. IAC is very lightweight and dramatically reduces the complexity and storage cost. Moreover, we introduce multiple auxiliary segmentation heads to further refine the network accuracy. We have conducted detailed quantitative experiments, which shows how each component contributes to the final performance. We evaluate our approach on well known public benchmarks (SemanticKITTI), which demonstrates our proposed LENet is more lightweight and effective than state-of-the-art semantic segmentation approaches.

arxiv情報

著者 Ben Ding
発行日 2023-01-13 03:37:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク