ReDAL: Region-based and Diversity-aware Active Learning for Point Cloud Semantic Segmentation

要約

教師あり点群セマンティックセグメンテーションにおける深層学習の成功にもかかわらず、大規模な点ごとの手動アノテーションの取得は依然として大きな課題である。このアノテーションの負担を軽減するために、我々は、多くの深層学習アプローチの一般的なフレームワークであるRegion-based and Diversity-aware Active Learning (ReDAL) を提案し、ラベル獲得のために有益かつ多様なサブシーン領域のみを自動的に選択することを目指す。深層学習による3次元シーン理解のためには、一部の注釈付き領域だけで十分であることを踏まえ、ソフトマックスエントロピー、色不連続性、構造複雑性を用いて、サブシーン領域の情報量を測定する。また、多様性を考慮した選択アルゴリズムを開発し、クエリバッチにおいて、情報量は多いが類似した領域を選択した結果、冗長なアノテーションが発生することを回避する。S3DISとSemanticKITTIデータセットにおいて、それぞれ15%と5%以下のアノテーションで、90%の完全教師あり学習の性能を達成することが、広範な実験により示されている。我々のコードは、https://github.com/tsunghan-wu/ReDAL で公開されています。

要約(オリジナル)

Despite the success of deep learning on supervised point cloud semantic segmentation, obtaining large-scale point-by-point manual annotations is still a significant challenge. To reduce the huge annotation burden, we propose a Region-based and Diversity-aware Active Learning (ReDAL), a general framework for many deep learning approaches, aiming to automatically select only informative and diverse sub-scene regions for label acquisition. Observing that only a small portion of annotated regions are sufficient for 3D scene understanding with deep learning, we use softmax entropy, color discontinuity, and structural complexity to measure the information of sub-scene regions. A diversity-aware selection algorithm is also developed to avoid redundant annotations resulting from selecting informative but similar regions in a querying batch. Extensive experiments show that our method highly outperforms previous active learning strategies, and we achieve the performance of 90% fully supervised learning, while less than 15% and 5% annotations are required on S3DIS and SemanticKITTI datasets, respectively. Our code is publicly available at https://github.com/tsunghan-wu/ReDAL.

arxiv情報

著者 Tsung-Han Wu,Yueh-Cheng Liu,Yu-Kai Huang,Hsin-Ying Lee,Hung-Ting Su,Ping-Chia Huang,Winston H. Hsu
発行日 2022-06-09 01:23:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク