Convergence of Manifold Filter-Combine Networks

要約

多様体ニューラル ネットワーク (MNN) をより深く理解するために、多様体フィルター結合ネットワーク (MFCN) を紹介します。
フィルター結合フレームワークは、グラフ ニューラル ネットワーク (GNN) の一般的な集計結合パラダイムと類似しており、さまざまな一般的な GNN の多様な類似体として解釈できる、多くの興味深い MNN ファミリを当然示唆します。
次に、スパース グラフによる多様体近似に依存する、高次元点群に MFCN を実装する方法を提案します。
データ点の数が無限に近づく傾向があるため、連続体の限界に収束するという意味で、私たちの方法が一貫していることを証明します。

要約(オリジナル)

In order to better understand manifold neural networks (MNNs), we introduce Manifold Filter-Combine Networks (MFCNs). The filter-combine framework parallels the popular aggregate-combine paradigm for graph neural networks (GNNs) and naturally suggests many interesting families of MNNs which can be interpreted as the manifold analog of various popular GNNs. We then propose a method for implementing MFCNs on high-dimensional point clouds that relies on approximating the manifold by a sparse graph. We prove that our method is consistent in the sense that it converges to a continuum limit as the number of data points tends to infinity.

arxiv情報

著者 David R. Johnson,Joyce Chew,Siddharth Viswanath,Edward De Brouwer,Deanna Needell,Smita Krishnaswamy,Michael Perlmutter
発行日 2024-10-18 17:40:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP, stat.ML パーマリンク