Federated Hypergraph Learning with Hyperedge Completion

要約

ハイパーグラフ ニューラル ネットワークは、ノード間の高次の関係を捕捉することで従来のグラフ ニューラル ネットワークを強化します。これは、相互作用が単にペアごとではないデータが豊富な環境では不可欠であることがわかります。
データの複雑さと相互接続性が高まるにつれて、グラフ構造のデータが分割されて分散保存されるのが一般的となり、サブグラフでのフェデレーテッド ラーニングの必要性が強調されています。
この研究では、フェデレーション ハイパーグラフ学習のための新しいアルゴリズムである FedHGN を提案します。
私たちのアルゴリズムは、分散デバイスに保存されたハイパーグラフのサブグラフを利用して、フェデレーション方式でローカル HGNN モデルをトレーニングします。つまり、クライアントのプライバシーを保護しながら、モデル パラメーターを共有することで効果的なグローバル HGNN モデルを共同開発します。
さらに、ハイパーエッジが複数のクライアントにまたがる可能性があることを考慮して、クライアント間のハイパーエッジ特徴収集が中央サーバーで実行されるトレーニング プロセスの前に、事前トレーニング ステップが採用されます。
このようにして、ノード機能の集約フェーズ中に、不足しているクライアント間情報を中央サーバーから補足できます。
7 つの現実世界のデータセットに関する実験結果は、私たちのアプローチの有効性を確認し、従来のフェデレーテッド グラフ学習方法と比べてそのパフォーマンス上の利点を実証しています。

要約(オリジナル)

Hypergraph neural networks enhance conventional graph neural networks by capturing high-order relationships among nodes, which proves vital in data-rich environments where interactions are not merely pairwise. As data complexity and interconnectivity grow, it is common for graph-structured data to be split and stored in a distributed manner, underscoring the necessity of federated learning on subgraphs. In this work, we propose FedHGN, a novel algorithm for federated hypergraph learning. Our algorithm utilizes subgraphs of a hypergraph stored on distributed devices to train local HGNN models in a federated manner:by collaboratively developing an effective global HGNN model through sharing model parameters while preserving client privacy. Additionally, considering that hyperedges may span multiple clients, a pre-training step is employed before the training process in which cross-client hyperedge feature gathering is performed at the central server. In this way, the missing cross-client information can be supplemented from the central server during the node feature aggregation phase. Experimental results on seven real-world datasets confirm the effectiveness of our approach and demonstrate its performance advantages over traditional federated graph learning methods.

arxiv情報

著者 Linfeng Luo,Fengxiao Tang,Xiyu Liu,Zhiqi Guo,Zihao Qiu,Ming Zhao
発行日 2024-08-09 16:31:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク