Unsupervised Contrastive Learning with Simple Transformation for 3D Point Cloud Data

要約

順序付けされていないポイントを処理するために、多くのポイント クラウド学習方法が提案されていますが、それらのほとんどは教師ありであり、トレーニングにはラベルが必要です。
対照的に、点群データの教師なし学習は、これまであまり注目されていませんでした。
この論文では、教師なし点群学習のためのシンプルで効果的なアプローチを提案します。
特に、元の点群の優れた対照的なバージョンを生成する非常に有用な変換を特定します。
彼らはペアを構成します。
共有エンコーダーと共有ヘッド ネットワークを通過した後、下流の分類とセグメンテーションをそれぞれ促進するために、対照的な損失の 2 つのバリアントを導入することで、出力表現間の一貫性が最大化されます。
この方法の有効性を実証するために、3D オブジェクト分類 (ModelNet40 および ModelNet10 上)、形状パーツ セグメンテーション (ShapeNet Part データセット上)、およびシーン セグメンテーション (S3DIS 上) の 3 つのダウンストリーム タスクで実験を行います。
包括的な結果は、私たちの教師なし対照表現学習が、オブジェクトの分類とセマンティック セグメンテーションで印象的な結果をもたらすことを示しています。
一般に、現在の教師なしメソッドよりも優れており、教師ありメソッドと同等のパフォーマンスを達成することさえあります。
ソースコードは公開されます。

要約(オリジナル)

Though a number of point cloud learning methods have been proposed to handle unordered points, most of them are supervised and require labels for training. By contrast, unsupervised learning of point cloud data has received much less attention to date. In this paper, we propose a simple yet effective approach for unsupervised point cloud learning. In particular, we identify a very useful transformation which generates a good contrastive version of an original point cloud. They make up a pair. After going through a shared encoder and a shared head network, the consistency between the output representations are maximized with introducing two variants of contrastive losses to respectively facilitate downstream classification and segmentation. To demonstrate the efficacy of our method, we conduct experiments on three downstream tasks which are 3D object classification (on ModelNet40 and ModelNet10), shape part segmentation (on ShapeNet Part dataset) as well as scene segmentation (on S3DIS). Comprehensive results show that our unsupervised contrastive representation learning enables impressive outcomes in object classification and semantic segmentation. It generally outperforms current unsupervised methods, and even achieves comparable performance to supervised methods. Our source codes will be made publicly available.

arxiv情報

著者 Jincen Jiang,Xuequan Lu,Wanli Ouyang,Meili Wang
発行日 2023-01-24 05:22:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CG, cs.CV パーマリンク