要約
潜在グラフ推論(Latent Graph Inference: LGI)は、与えられたグラフトポロジーを動的に学習することで、グラフニューラルネットワーク(GNN)の依存性を緩和する。しかし、ほとんどのLGI手法は、再配線するための(ノイズの多い、不完全な、改良可能な、…)入力グラフがあることを前提としており、通常のグラフトポロジーしか学習できない。トポロジカル深層学習(TDL)の成功を受けて、我々は、データ点間の多方向相互作用を記述する高次セル複合体(スパースで規則的なトポロジーではない)を学習するための潜在トポロジー推論(LTI)を研究する。この目的のために、我々は、下流タスクを改善するために、複合体中の細胞確率を計算する新しい学習可能な関数である、微分可能細胞複合体モジュール(DCM)を導入する。DCMをセル複合体メッセージパッシングネットワーク層と統合し、エンドツーエンドで学習させる方法を示す。これは、入力中の全ての可能なセルを網羅的に探索することを避け、スケーラビリティを維持する2段階の推論手順によるものである。我々のモデルは、いくつかの同類および異類グラフデータセットでテストされ、特に入力グラフが提供されない場合に顕著な改善をもたらし、他の最新技術を凌駕することが示された。
要約(オリジナル)
Latent Graph Inference (LGI) relaxed the reliance of Graph Neural Networks (GNNs) on a given graph topology by dynamically learning it. However, most of LGI methods assume to have a (noisy, incomplete, improvable, …) input graph to rewire and can solely learn regular graph topologies. In the wake of the success of Topological Deep Learning (TDL), we study Latent Topology Inference (LTI) for learning higher-order cell complexes (with sparse and not regular topology) describing multi-way interactions between data points. To this aim, we introduce the Differentiable Cell Complex Module (DCM), a novel learnable function that computes cell probabilities in the complex to improve the downstream task. We show how to integrate DCM with cell complex message passing networks layers and train it in a end-to-end fashion, thanks to a two-step inference procedure that avoids an exhaustive search across all possible cells in the input, thus maintaining scalability. Our model is tested on several homophilic and heterophilic graph datasets and it is shown to outperform other state-of-the-art techniques, offering significant improvements especially in cases where an input graph is not provided.
arxiv情報
著者 | Claudio Battiloro,Indro Spinelli,Lev Telyatnikov,Michael Bronstein,Simone Scardapane,Paolo Di Lorenzo |
発行日 | 2023-08-03 13:46:09+00:00 |
arxivサイト | arxiv_id(pdf) |