CRA-PCN: Point Cloud Completion with Intra- and Inter-level Cross-Resolution Transformers

要約

点群の補完は、オクルージョンやセンサー解像度の制限などによる不完全さにより、完全な点群を回復するために不可欠なタスクです。粗密生成アーキテクチャ ファミリは、最近、点群の補完で大きな成功を収め、徐々に主流になってきました。
この研究では、これらの手法の背後にある重要な要素の 1 つである、明示的なクロス解像度集約による細心の注意を払って考案された特徴抽出操作を明らかにします。
ローカル アテンション メカニズムを使用してクロス解像度集約を効率的に実行する Cross-Resolution Transformer を紹介します。
再帰的設計の助けを借りて、提案された操作は一般的な集計操作よりも多くのスケールのフィーチャをキャプチャでき、これは細かい幾何学的特徴をキャプチャするのに有益です。
これまでの方法論では、レベル間クロス解像度集約のさまざまな表現に挑戦してきましたが、レベル内 1 とその組み合わせの有効性は分析されていませんでした。
統合された設計により、Cross-Resolution Transformer は入力を切り替えることでレベル内またはレベル間のクロス解像度集約を実行できます。
点生成のために 2 つの形式のクロスレゾリューション トランスフォーマーを 1 つのアップサンプリング ブロックに統合し、粗いものから細かいものへの方法に従って、積み重ねられたアップサンプリング ブロックで完全な形状を段階的に予測する CRA-PCN を構築します。
広範な実験により、私たちの手法は、広く使用されているいくつかのベンチマークで最先端の手法を大幅に上回るパフォーマンスを示しています。
コードは https://github.com/EasyRy/CRA-PCN で入手できます。

要約(オリジナル)

Point cloud completion is an indispensable task for recovering complete point clouds due to incompleteness caused by occlusion, limited sensor resolution, etc. The family of coarse-to-fine generation architectures has recently exhibited great success in point cloud completion and gradually became mainstream. In this work, we unveil one of the key ingredients behind these methods: meticulously devised feature extraction operations with explicit cross-resolution aggregation. We present Cross-Resolution Transformer that efficiently performs cross-resolution aggregation with local attention mechanisms. With the help of our recursive designs, the proposed operation can capture more scales of features than common aggregation operations, which is beneficial for capturing fine geometric characteristics. While prior methodologies have ventured into various manifestations of inter-level cross-resolution aggregation, the effectiveness of intra-level one and their combination has not been analyzed. With unified designs, Cross-Resolution Transformer can perform intra- or inter-level cross-resolution aggregation by switching inputs. We integrate two forms of Cross-Resolution Transformers into one up-sampling block for point generation, and following the coarse-to-fine manner, we construct CRA-PCN to incrementally predict complete shapes with stacked up-sampling blocks. Extensive experiments demonstrate that our method outperforms state-of-the-art methods by a large margin on several widely used benchmarks. Codes are available at https://github.com/EasyRy/CRA-PCN.

arxiv情報

著者 Yi Rong,Haoran Zhou,Lixin Yuan,Cheng Mei,Jiahao Wang,Tong Lu
発行日 2024-02-14 12:28:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク