InvariantOODG: Learning Invariant Features of Point Clouds for Out-of-Distribution Generalization

要約

3D センサーの利便性により、さまざまなアプリケーションで 3D 点群の使用が増加しています。
ただし、取得デバイスやシナリオの違いにより、点群のデータ分布の相違が生じるため、点群表現の学習方法を適切に一般化する必要があります。
これまでのほとんどの方法は、ターゲット ドメイン データに対する事前トレーニング済みモデルの微調整を伴うドメイン適応に依存していますが、ターゲット ドメイン データが利用できない可能性がある現実のシナリオでは、これは常に実現可能であるとは限りません。
この問題に対処するために、我々は InvariantOODG を提案します。これは、2 分岐ネットワークを使用して、異なる分布を持つ点群間の不変性を学習し、元の点群と拡張された点群からローカルからグローバルの特徴を抽出します。
具体的には、点群の局所特徴学習を強化するために、最も有用な局所領域を特定する学習可能なアンカー ポイントのセットと、入力点群を拡張する 2 種類の変換を定義します。
実験結果は、3D ドメイン一般化ベンチマークにおける提案されたモデルの有効性を示しています。

要約(オリジナル)

The convenience of 3D sensors has led to an increase in the use of 3D point clouds in various applications. However, the differences in acquisition devices or scenarios lead to divergence in the data distribution of point clouds, which requires good generalization of point cloud representation learning methods. While most previous methods rely on domain adaptation, which involves fine-tuning pre-trained models on target domain data, this may not always be feasible in real-world scenarios where target domain data may be unavailable. To address this issue, we propose InvariantOODG, which learns invariability between point clouds with different distributions using a two-branch network to extract local-to-global features from original and augmented point clouds. Specifically, to enhance local feature learning of point clouds, we define a set of learnable anchor points that locate the most useful local regions and two types of transformations to augment the input point clouds. The experimental results demonstrate the effectiveness of the proposed model on 3D domain generalization benchmarks.

arxiv情報

著者 Zhimin Zhang,Xiang Gao,Wei Hu
発行日 2024-01-08 09:41:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク