Understanding Graph Neural Networks with Generalized Geometric Scattering Transforms

要約

散乱変換は、畳み込みニューラル ネットワークのモデルとして機能する多層ウェーブレット ベースの深層学習アーキテクチャです。
最近、いくつかの研究で、グラフなどの非ユークリッド設定に対する散乱変換の一般化が導入されました。
私たちの研究は、非対称ウェーブレットの非常に一般的なクラスに基づくグラフにウィンドウ付きおよびウィンドウなしの幾何学的散乱変換を導入することにより、これらの構造に基づいて構築されています。
これらの非対称グラフ散乱変換には、対称の対応物と同じ理論的保証が多くあることを示します。
その結果、提案された構造は、多くの既存のグラフ散乱アーキテクチャの既知の理論的結果を統合し、拡張します。
そうすることで、この研究は、証明可能な安定性と不変性が保証された大規模なネットワーク ファミリを導入することにより、幾何学的散乱と他のグラフ ニューラル ネットワーク間のギャップを埋めるのに役立ちます。
これらの結果は、フィルタを学習し、望ましい理論的特性も備えていることが証明されているグラフ構造データのための将来の深層学習アーキテクチャの基礎を築きます。

要約(オリジナル)

The scattering transform is a multilayered wavelet-based deep learning architecture that acts as a model of convolutional neural networks. Recently, several works have introduced generalizations of the scattering transform for non-Euclidean settings such as graphs. Our work builds upon these constructions by introducing windowed and non-windowed geometric scattering transforms for graphs based upon a very general class of asymmetric wavelets. We show that these asymmetric graph scattering transforms have many of the same theoretical guarantees as their symmetric counterparts. As a result, the proposed construction unifies and extends known theoretical results for many of the existing graph scattering architectures. In doing so, this work helps bridge the gap between geometric scattering and other graph neural networks by introducing a large family of networks with provable stability and invariance guarantees. These results lay the groundwork for future deep learning architectures for graph-structured data that have learned filters and also provably have desirable theoretical properties.

arxiv情報

著者 Michael Perlmutter,Alexander Tong,Feng Gao,Guy Wolf,Matthew Hirn
発行日 2023-06-29 01:28:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク