CLIP2Point: Transfer CLIP to Point Cloud Classification with Image-Depth Pre-training

要約

3次元視覚と言語を横断する事前学習は、学習データが限られているため、未だ開発途上にある。最近の研究では、視覚言語の事前学習モデルを3次元視覚に移植することが試みられている。PointCLIPは、点群データを多視点深度マップに変換し、CLIPを用いて形状分類を行う。しかし、レンダリングされた深度マップと画像との間の領域差や、深度分布の多様性により、その性能は制限される。この問題を解決するために、CLIPを3次元領域に転送し、点群分類に適応させる対照学習による画像奥行き事前学習法であるCLIP2Pointを提案する。CLIP2Pointは、CLIPを3D領域に移植し、点群分類に適応させることを目的とする。CLIP2Pointの事前学習スキームは、表現力豊かな視覚的・文字的特徴を捉えるための奥行き特徴を強化するクロスモダリティ学習と、奥行き集約の不変性を強化するイントラモダリティ学習を組み合わせている。さらに、我々は新しいデュアルパスアダプタ(DPA)モジュール、すなわち、少数ショット学習のための簡略化されたアダプタを持つデュアルパス構造を提案する。デュアルパス構造はCLIPとCLIP2Pointの併用を可能にし、簡略化されたアダプタはポストサーチを必要としない少数ショットタスクにうまく適合することができる。実験により、CLIP2PointはCLIPの知識を3次元視覚に伝達するのに有効であることが示された。CLIP2Pointは、PointCLIPや他の自己教師付き3Dネットワークを凌駕し、ゼロショットおよび少数ショットの分類において、最先端の結果を達成した。

要約(オリジナル)

Pre-training across 3D vision and language remains under development because of limited training data. Recent works attempt to transfer vision-language pre-training models to 3D vision. PointCLIP converts point cloud data to multi-view depth maps, adopting CLIP for shape classification. However, its performance is restricted by the domain gap between rendered depth maps and images, as well as the diversity of depth distributions. To address this issue, we propose CLIP2Point, an image-depth pre-training method by contrastive learning to transfer CLIP to the 3D domain, and adapt it to point cloud classification. We introduce a new depth rendering setting that forms a better visual effect, and then render 52,460 pairs of images and depth maps from ShapeNet for pre-training. The pre-training scheme of CLIP2Point combines cross-modality learning to enforce the depth features for capturing expressive visual and textual features and intra-modality learning to enhance the invariance of depth aggregation. Additionally, we propose a novel Dual-Path Adapter (DPA) module, i.e., a dual-path structure with simplified adapters for few-shot learning. The dual-path structure allows the joint use of CLIP and CLIP2Point, and the simplified adapter can well fit few-shot tasks without post-search. Experimental results show that CLIP2Point is effective in transferring CLIP knowledge to 3D vision. Our CLIP2Point outperforms PointCLIP and other self-supervised 3D networks, achieving state-of-the-art results on zero-shot and few-shot classification.

arxiv情報

著者 Tianyu Huang,Bowen Dong,Yunhan Yang,Xiaoshui Huang,Rynson W. H. Lau,Wanli Ouyang,Wangmeng Zuo
発行日 2022-10-03 16:13:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク