要約
自律走行では、新規オブジェクトと注釈の欠如が、ディープラーニングに基づく従来の3D LiDARセマンティックセグメンテーションに挑戦しています。これらの課題を解決する方法として、数ショット学習は実現可能である。しかし、現在、数ショットセマンティックセグメンテーションの方法は、カメラデータに焦点を当てており、そのほとんどは、ベースクラスを考慮せずに、新規クラスを予測するだけである。この設定は安全上の問題から自律走行に直接適用することはできない。そこで我々は、新規クラスとベースクラスの両方を同時に予測する数ショット3D LiDARセマンティックセグメンテーション法を提案する。本手法は、一般的な数ショットセマンティックセグメンテーションにおける背景の曖昧さの問題を解決しようとするものである。我々はまず、オリジナルのクロスエントロピーと知識蒸留損失をレビューし、次に3D LiDAR数ショットセマンティックセグメンテーションを実現するために、背景情報を取り入れた新しい損失関数を提案する。SemanticKITTIを用いた広範な実験により、本手法の有効性を実証する。
要約(オリジナル)
In autonomous driving, the novel objects and lack of annotations challenge the traditional 3D LiDAR semantic segmentation based on deep learning. Few-shot learning is a feasible way to solve these issues. However, currently few-shot semantic segmentation methods focus on camera data, and most of them only predict the novel classes without considering the base classes. This setting cannot be directly applied to autonomous driving due to safety concerns. Thus, we propose a few-shot 3D LiDAR semantic segmentation method that predicts both novel classes and base classes simultaneously. Our method tries to solve the background ambiguity problem in generalized few-shot semantic segmentation. We first review the original cross-entropy and knowledge distillation losses, then propose a new loss function that incorporates the background information to achieve 3D LiDAR few-shot semantic segmentation. Extensive experiments on SemanticKITTI demonstrate the effectiveness of our method.
arxiv情報
著者 | Jilin Mei,Junbao Zhou,Yu Hu |
発行日 | 2023-03-03 10:07:50+00:00 |
arxivサイト | arxiv_id(pdf) |