要約
【タイトル】
点群アップサンプリングにおけるPU-EdgeFormer:点の密度予測のためのエッジトランスフォーマー
【要約】
・深層学習を用いた点群アップサンプリング法の中でも、ほとんどのMLPベースの方法は、ポイントクラウドのローカルとグローバルな構造を同時にトレーニングすることが難しいという制限がある。
・この問題を解決するために、PU-EdgeFormerという点群アップサンプリング用のグラフ畳み込みとトランスフォーマーを組み合わせた手法を提案する。
・提案手法では、グラフ畳み込みとマルチヘッドのセルフアテンションモジュールから構成されたEdgeFormerユニットを構築する。
・既存のポイントから特徴量法よりも、ローカルのジオメトリとグローバルな構造をより良く学習するために、EdgeConvを用いたグラフ畳み込みを採用する。
・詳細な実験により、提案手法は、主観的および客観的な側面で既存の最先端の方法よりも優れた点群アップサンプリング性能を持つことを確認した。
・コードはhttps://github.com/dohoon2045/PU-EdgeFormerで入手可能。
要約(オリジナル)
Despite the recent development of deep learning-based point cloud upsampling, most MLP-based point cloud upsampling methods have limitations in that it is difficult to train the local and global structure of the point cloud at the same time. To solve this problem, we present a combined graph convolution and transformer for point cloud upsampling, denoted by PU-EdgeFormer. The proposed method constructs EdgeFormer unit that consists of graph convolution and multi-head self-attention modules. We employ graph convolution using EdgeConv, which learns the local geometry and global structure of point cloud better than existing point-to-feature method. Through in-depth experiments, we confirmed that the proposed method has better point cloud upsampling performance than the existing state-of-the-art method in both subjective and objective aspects. The code is available at https://github.com/dohoon2045/PU-EdgeFormer.
arxiv情報
著者 | Dohoon Kim,Minwoo Shin,Joonki Paik |
発行日 | 2023-05-02 01:42:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI