Tensor-view Topological Graph Neural Network

要約

グラフの分類は、グラフ構造データの重要な学習タスクです。
グラフ ニューラル ネットワーク (GNN) は、グラフ学習において最近ますます注目を集めており、多くの重要なグラフ問題で大幅な改善が見られています。
最先端のパフォーマンスにもかかわらず、既存の GNN は各ノードの周囲の非常に限られた近傍からのローカル情報のみを使用するため、マルチモーダル情報の損失と過剰な計算のオーバーヘッドに悩まされます。
これらの問題に対処するために、私たちは新しいテンソルビュー トポロジカル グラフ ニューラル ネットワーク (TTG-NN) を提案します。これは、永続的な相同性、グラフ畳み込み、テンソル演算に基づいて構築されたシンプルでありながら効果的なトポロジカル ディープ ラーニングのクラスです。
この新しい手法には、ローカル レベルとグローバル レベルの両方で Tensor ビュー トポロジカル (TT) と Tensor ビュー グラフ (TG) の構造情報を同時に取得するためのテンソル学習が組み込まれています。
計算的には、グラフのトポロジと構造を最大限に活用するために、特徴テンソルの集約と変換を解きほぐし、より少ない計算でマルチモーダル構造を保存する方法を学習する 2 つの柔軟な TT および TG 表現学習モジュールを提案します。
理論的には、私たちが提案するテンソル変換層 (TTL) のサンプル外およびサンプル内の平均二乗近似誤差の両方で高確率の範囲を導出します。
実際のデータ実験では、提案された TTG-NN がさまざまなグラフ ベンチマークで 20 の最先端の方法よりも優れていることが示されています。

要約(オリジナル)

Graph classification is an important learning task for graph-structured data. Graph neural networks (GNNs) have recently gained growing attention in graph learning and have shown significant improvements in many important graph problems. Despite their state-of-the-art performances, existing GNNs only use local information from a very limited neighborhood around each node, suffering from loss of multi-modal information and overheads of excessive computation. To address these issues, we propose a novel Tensor-view Topological Graph Neural Network (TTG-NN), a class of simple yet effective topological deep learning built upon persistent homology, graph convolution, and tensor operations. This new method incorporates tensor learning to simultaneously capture Tensor-view Topological (TT), as well as Tensor-view Graph (TG) structural information on both local and global levels. Computationally, to fully exploit graph topology and structure, we propose two flexible TT and TG representation learning modules that disentangle feature tensor aggregation and transformation and learn to preserve multi-modal structure with less computation. Theoretically, we derive high probability bounds on both the out-of-sample and in-sample mean squared approximation errors for our proposed Tensor Transformation Layer (TTL). Real data experiments show that the proposed TTG-NN outperforms 20 state-of-the-art methods on various graph benchmarks.

arxiv情報

著者 Tao Wen,Elynn Chen,Yuzhou Chen
発行日 2024-01-22 14:55:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク