From Latent Graph to Latent Topology Inference: Differentiable Cell Complex Module

要約

Latent Graph Inference (LGI) は、特定のグラフ トポロジを動的に学習することで、グラフ ニューラル ネットワーク (GNN) への依存を緩和しました。
ただし、ほとんどの LGI メソッドは、(ノイズが多い、不完全、改善可能など) 再配線する入力グラフがあることを前提としており、通常のグラフ トポロジのみを学習できます。
トポロジカルディープラーニング(TDL)の成功を受けて、データポイント間の多方向相互作用を記述する高次の細胞複合体(スパースで非規則的なトポロジ)を学習するための潜在トポロジ推論(LTI)を研究しています。
この目的のために、我々は、下流タスクを改善するために複合体内の細胞確率を計算する新しい学習可能な関数である、Differentiable Cell Complex Module (DCM) を導入します。
DCM をセル複合メッセージ パッシング ネットワーク層と統合し、2 段階の推論手順のおかげでエンドツーエンドの方法でトレーニングする方法を示します。この手順により、入力内のすべてのセルにわたる徹底的な検索が回避され、スケーラビリティが維持されます。
私たちのモデルは、いくつかの同種親和性および異種親和性のグラフ データセットでテストされ、他の最先端技術を上回るパフォーマンスを示し、特に入力グラフが提供されない場合に大幅な改善が見られます。

要約(オリジナル)

Latent Graph Inference (LGI) relaxed the reliance of Graph Neural Networks (GNNs) on a given graph topology by dynamically learning it. However, most of LGI methods assume to have a (noisy, incomplete, improvable, …) input graph to rewire and can solely learn regular graph topologies. In the wake of the success of Topological Deep Learning (TDL), we study Latent Topology Inference (LTI) for learning higher-order cell complexes (with sparse and not regular topology) describing multi-way interactions between data points. To this aim, we introduce the Differentiable Cell Complex Module (DCM), a novel learnable function that computes cell probabilities in the complex to improve the downstream task. We show how to integrate DCM with cell complex message passing networks layers and train it in a end-to-end fashion, thanks to a two-step inference procedure that avoids an exhaustive search across all possible cells in the input, thus maintaining scalability. Our model is tested on several homophilic and heterophilic graph datasets and it is shown to outperform other state-of-the-art techniques, offering significant improvements especially in cases where an input graph is not provided.

arxiv情報

著者 Claudio Battiloro,Indro Spinelli,Lev Telyatnikov,Michael Bronstein,Simone Scardapane,Paolo Di Lorenzo
発行日 2023-05-25 15:33:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.NE パーマリンク