要約
幾何学的な深層学習技術の急速な発展に伴い、不規則なメッシュ構造と一般的なバックボーン ネットワークを橋渡しする多くのメッシュベースの畳み込み演算子が提案されています。
この論文では、畳み込みは役立ちますが、多層パーセプトロン (MLP) のみに基づく単純なアーキテクチャでも、メッシュ分類とセマンティック セグメンテーションを処理するのに十分な能力があることを示します。
Mesh-MLP と呼ばれる新しいネットワーク アーキテクチャは、ヒート カーネル シグネチャ (HKS) と二面角を備えたメッシュ頂点を入力として受け取り、ResNet の畳み込みモジュールを多層パーセプトロン (MLP) で置き換え、層正規化を利用します (
LN) を使用して、レイヤーの正規化を実行します。
すべて MLP アーキテクチャはエンドツーエンド方式で動作し、プーリング モジュールは含まれません。
メッシュ分類/セグメンテーション タスクに関する広範な実験結果により、全 MLP アーキテクチャの有効性が検証されています。
要約(オリジナル)
With the rapid development of geometric deep learning techniques, many mesh-based convolutional operators have been proposed to bridge irregular mesh structures and popular backbone networks. In this paper, we show that while convolutions are helpful, a simple architecture based exclusively on multi-layer perceptrons (MLPs) is competent enough to deal with mesh classification and semantic segmentation. Our new network architecture, named Mesh-MLP, takes mesh vertices equipped with the heat kernel signature (HKS) and dihedral angles as the input, replaces the convolution module of a ResNet with Multi-layer Perceptron (MLP), and utilizes layer normalization (LN) to perform the normalization of the layers. The all-MLP architecture operates in an end-to-end fashion and does not include a pooling module. Extensive experimental results on the mesh classification/segmentation tasks validate the effectiveness of the all-MLP architecture.
arxiv情報
著者 | Qiujie Dong,Xiaoran Gong,Rui Xu,Zixiong Wang,Shuangmin Chen,Shiqing Xin,Changhe Tu,Wenping Wang |
発行日 | 2023-12-28 13:14:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google