要約
自動運転では、新しいオブジェクトと注釈の欠如が、ディープ ラーニングに基づく従来の 3D LiDAR セマンティック セグメンテーションに挑戦しています。
少数ショット学習は、これらの問題を解決するための実行可能な方法です。
ただし、現在、少数ショットのセマンティック セグメンテーション メソッドはカメラ データに焦点を当てており、それらのほとんどは基本クラスを考慮せずに新しいクラスを予測するだけです。
安全上の理由から、この設定を自動運転に直接適用することはできません。
したがって、新規クラスと基本クラスの両方を同時に予測する、少数ショットの 3D LiDAR セマンティック セグメンテーション メソッドを提案します。
私たちの方法は、一般化された少数ショットのセマンティックセグメンテーションにおける背景のあいまいさの問題を解決しようとします。
最初に元のクロスエントロピーと知識の蒸留損失を確認し、次に背景情報を組み込んだ新しい損失関数を提案して、3D LiDAR の少数ショットのセマンティック セグメンテーションを実現します。
SemanticKITTI での広範な実験により、この手法の有効性が実証されました。
要約(オリジナル)
In autonomous driving, the novel objects and lack of annotations challenge the traditional 3D LiDAR semantic segmentation based on deep learning. Few-shot learning is a feasible way to solve these issues. However, currently few-shot semantic segmentation methods focus on camera data, and most of them only predict the novel classes without considering the base classes. This setting cannot be directly applied to autonomous driving due to safety concerns. Thus, we propose a few-shot 3D LiDAR semantic segmentation method that predicts both novel classes and base classes simultaneously. Our method tries to solve the background ambiguity problem in generalized few-shot semantic segmentation. We first review the original cross-entropy and knowledge distillation losses, then propose a new loss function that incorporates the background information to achieve 3D LiDAR few-shot semantic segmentation. Extensive experiments on SemanticKITTI demonstrate the effectiveness of our method.
arxiv情報
著者 | Jilin Mei,Junbao Zhou,Yu Hu |
発行日 | 2023-02-17 09:52:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google