Semantic Segmentation for Point Cloud Scenes via Dilated Graph Feature Aggregation and Pyramid Decoders

要約

点群の意味的セグメンテーションは、各点のカテゴリを高密度に予測することで、シーンの包括的な理解をもたらす。しかし、点群のセマンティックセグメンテーションは、受容野の単一性により、複数の受容野の特徴を表現することが困難であり、類似した空間構造を持つインスタンスの誤判定を引き起こす。本論文では、ピラミッドデコーダにより計算された多基底集約損失(MALoss)により導かれる拡張グラフ特徴集約(DGFA)に根ざしたグラフ畳み込みネットワークDGFA-Netを提案する。マルチ受容野特徴を構成するために、提案する拡張グラフ畳み込み(DGConv)を基本構成要素とするDGFAは、様々な受容領域を持つ拡張グラフを捉えることにより、マルチスケール特徴表現を集約するように設計されている。同時に、異なる解像度の点群を計算ベースとした受容野情報へのペナルティを考慮することで、受容野ベースの多様性を考慮したMALoss駆動のピラミッド型デコーダを導入する。この2つを組み合わせることで、DGFA-Netは類似した空間構造を持つインスタンスのセグメンテーション性能を大幅に向上させる。S3DIS、ShapeNetPart、Toronto-3Dを用いた実験では、DGFA-Netがベースラインアプローチを上回り、最新のセグメンテーション性能を達成することが示された。

要約(オリジナル)

Semantic segmentation of point clouds generates comprehensive understanding of scenes through densely predicting the category for each point. Due to the unicity of receptive field, semantic segmentation of point clouds remains challenging for the expression of multi-receptive field features, which brings about the misclassification of instances with similar spatial structures. In this paper, we propose a graph convolutional network DGFA-Net rooted in dilated graph feature aggregation (DGFA), guided by multi-basis aggregation loss (MALoss) calculated through Pyramid Decoders. To configure multi-receptive field features, DGFA which takes the proposed dilated graph convolution (DGConv) as its basic building block, is designed to aggregate multi-scale feature representation by capturing dilated graphs with various receptive regions. By simultaneously considering penalizing the receptive field information with point sets of different resolutions as calculation bases, we introduce Pyramid Decoders driven by MALoss for the diversity of receptive field bases. Combining these two aspects, DGFA-Net significantly improves the segmentation performance of instances with similar spatial structures. Experiments on S3DIS, ShapeNetPart and Toronto-3D show that DGFA-Net outperforms the baseline approach, achieving a new state-of-the-art segmentation performance.

arxiv情報

著者 Yongqiang Mao,Xian Sun,Kaiqiang Chen,Wenhui Diao,Zonghao Guo,Xiaonan Lu,Kun Fu
発行日 2022-11-03 11:03:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク