Higher-order Structure Boosts Link Prediction on Temporal Graphs

要約

時間グラフニューラルネットワーク(TGNNS)は、時間グラフの構造をモデリングと予測するために注目を集めています。
ただし、既存のTGNNは主にペアワイズの相互作用に焦点を当て、実際の時間グラフの形成と進化をリンクするのに不可欠な高次構造を見落とします。
一方、これらのモデルはしばしば効率のボトルネックに悩まされ、表現力をさらに制限します。
これらの課題に取り組むために、ハイパーグラフ表現を時間グラフ学習に組み込む高次構造の時間グラフネットワークを提案します。
特に、基礎となる高次構造を識別するためのアルゴリズムを開発し、グループの相互作用をキャプチャするモデルの能力を高めます。
さらに、複数のエッジ機能をハイパーエッジ表現に集約することにより、HTGNはトレーニング中のメモリコストを効果的に削減します。
私たちは、私たちのアプローチの高度な表現力を理論的に実証し、さまざまな現実世界の時間グラフでの広範な実験を通じてその有効性と効率を検証します。
実験結果は、HTGNが動的リンク予測で優れたパフォーマンスを達成し、既存の方法と比較してメモリコストを最大50 \%削減することを示しています。

要約(オリジナル)

Temporal Graph Neural Networks (TGNNs) have gained growing attention for modeling and predicting structures in temporal graphs. However, existing TGNNs primarily focus on pairwise interactions while overlooking higher-order structures that are integral to link formation and evolution in real-world temporal graphs. Meanwhile, these models often suffer from efficiency bottlenecks, further limiting their expressive power. To tackle these challenges, we propose a Higher-order structure Temporal Graph Neural Network, which incorporates hypergraph representations into temporal graph learning. In particular, we develop an algorithm to identify the underlying higher-order structures, enhancing the model’s ability to capture the group interactions. Furthermore, by aggregating multiple edge features into hyperedge representations, HTGN effectively reduces memory cost during training. We theoretically demonstrate the enhanced expressiveness of our approach and validate its effectiveness and efficiency through extensive experiments on various real-world temporal graphs. Experimental results show that HTGN achieves superior performance on dynamic link prediction while reducing memory costs by up to 50\% compared to existing methods.

arxiv情報

著者 Jingzhe Liu,Zhigang Hua,Yan Xie,Bingheng Li,Harry Shomer,Yu Song,Kaveh Hassani,Jiliang Tang
発行日 2025-05-21 16:51:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク