Hypergraph Neural Networks through the Lens of Message Passing: A Common Perspective to Homophily and Architecture Design

要約

現在のハイパーグラフ学習方法論とハイパーグラフ領域のベンチマーク データセットのほとんどは、グラフのアナログからプロシージャを取り出すことによって取得されており、同時にハイパーグラフ ネットワーク基盤に影を落とすことになります。
この論文では、この点に関するいくつかの未解決の疑問に直面しようとします。同質性の概念は、グラフベースの研究における重要性と同様に、ハイパーグラフ ニューラル ネットワーク (HGNN) において重要な役割を果たすことができるのでしょうか?
現在のハイパーグラフのアーキテクチャと方法論を改善する余地はありますか?
(例えば、高次ネットワークの特定の特性に注意深く対処することによって)既存のデータセットは HGNN に意味のあるベンチマークを提供しますか?
詳細を掘り下げて、この論文は、メッセージパッシングスキームに基づいた高次ネットワークにおける同性愛の新しい概念化を提案します。
このアプローチは、データセットとアーキテクチャの分析フレームワークを調和させ、複雑で高次のネットワーク構造とダイナミクスを調査および解釈するための統一された視点を提供します。
さらに、ハイパーエッジ依存のノード表現を可能にすることで HGNN を再定義する新しいメッセージ パッシング フレームワークである MultiSet を提案し、新しいハイパーエッジ サンプリング戦略を活用する新しいアーキテクチャ MultiSetMixer を導入します。
最後に、私たちの提案を文脈化し、ハイパーグラフ表現の学習における貴重な洞察につながる広範な実験セットを提供します。

要約(オリジナル)

Most of the current hypergraph learning methodologies and benchmarking datasets in the hypergraph realm are obtained by lifting procedures from their graph analogs, simultaneously leading to overshadowing hypergraph network foundations. This paper attempts to confront some pending questions in that regard: Can the concept of homophily play a crucial role in Hypergraph Neural Networks (HGNNs), similar to its significance in graph-based research? Is there room for improving current hypergraph architectures and methodologies? (e.g. by carefully addressing the specific characteristics of higher-order networks) Do existing datasets provide a meaningful benchmark for HGNNs? Diving into the details, this paper proposes a novel conceptualization of homophily in higher-order networks based on a message passing scheme; this approach harmonizes the analytical frameworks of datasets and architectures, offering a unified perspective for exploring and interpreting complex, higher-order network structures and dynamics. Further, we propose MultiSet, a novel message passing framework that redefines HGNNs by allowing hyperedge-dependent node representations, as well as introduce a novel architecture MultiSetMixer that leverages a new hyperedge sampling strategy. Finally, we provide an extensive set of experiments that contextualize our proposals and lead to valuable insights in hypergraph representation learning.

arxiv情報

著者 Lev Telyatnikov,Maria Sofia Bucarelli,Guillermo Bernardez,Olga Zaghen,Simone Scardapane,Pietro Lio
発行日 2023-10-11 17:35:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SI パーマリンク