要約
標準の空間畳み込みは、通常の近隣構造を持つ入力データを想定しています。
既存の方法は、通常、通常の「ビュー」を修正することにより、畳み込みを不規則な点群ドメインに一般化します。
固定近傍サイズ。畳み込みカーネルサイズは各ポイントで同じままです。
ただし、点群は画像ほど構造化されていないため、固定された隣接数は不幸な誘導バイアスを与えます。
通常のビューに依存しないDifferenceGraphConvolution(diffConv)という名前の新しいグラフ畳み込みを提示します。
diffConvは、空間的に変化し、密度が拡張された近傍で動作します。これらの近傍は、学習されたマスクされた注意メカニズムによってさらに適応されます。
実験によると、私たちのモデルはノイズに対して非常に堅牢であり、3D形状分類およびシーン理解タスクで最先端のパフォーマンスを取得し、推論速度を高速化しています。
要約(オリジナル)
Standard spatial convolutions assume input data with a regular neighborhood structure. Existing methods typically generalize convolution to the irregular point cloud domain by fixing a regular ‘view’ through e.g. a fixed neighborhood size, where the convolution kernel size remains the same for each point. However, since point clouds are not as structured as images, the fixed neighbor number gives an unfortunate inductive bias. We present a novel graph convolution named Difference Graph Convolution (diffConv), which does not rely on a regular view. diffConv operates on spatially-varying and density-dilated neighborhoods, which are further adapted by a learned masked attention mechanism. Experiments show that our model is very robust to the noise, obtaining state-of-the-art performance in 3D shape classification and scene understanding tasks, along with a faster inference speed.
arxiv情報
著者 | Manxi Lin,Aasa Feragen |
発行日 | 2022-07-12 13:51:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google