Stability and Generalization of Hypergraph Collaborative Networks

要約

グラフ・ニューラル・ネットワークは、サンプル間の対の関係を利用するのに非常に効果的であることが示されている。最近、グラフ・ニューラル・ネットワークをハイパーグラフ・ニューラル・ネットワークに一般化し、より複雑な関係を利用する提案がいくつか成功している。特にハイパーグラフ協調ネットワークは、様々な半教師付き学習タスクにおいて、他のハイパーグラフニューラルネットワークと比較して優れた結果をもたらす。協調ネットワークは、頂点埋め込みとハイパーエッジ埋め込みを合同最適化問題として定式化し、与えられたハイパーグラフを再構成する際にそれらの整合性を利用することで、高品質な頂点埋め込みとハイパーエッジ埋め込みを一緒に提供することができる。本論文では、協調ネットワークのコア層のアルゴリズム的安定性を確立し、汎化保証を与えることを目的とする。この分析は、協調ネットワークにおけるハイパーグラフフィルタの設計、例えば、学習プロセスの均一な安定性を達成するために、データとハイパーグラフフィルタをどのようにスケーリングすべきか、に光を当てる。理論を説明するために、実世界のデータセットを用いたいくつかの実験結果を示す。

要約(オリジナル)

Graph neural networks have been shown to be very effective in utilizing pairwise relationships across samples. Recently, there have been several successful proposals to generalize graph neural networks to hypergraph neural networks to exploit more complex relationships. In particular, the hypergraph collaborative networks yield superior results compared to other hypergraph neural networks for various semi-supervised learning tasks. The collaborative network can provide high quality vertex embeddings and hyperedge embeddings together by formulating them as a joint optimization problem and by using their consistency in reconstructing the given hypergraph. In this paper, we aim to establish the algorithmic stability of the core layer of the collaborative network and provide generalization guarantees. The analysis sheds light on the design of hypergraph filters in collaborative networks, for instance, how the data and hypergraph filters should be scaled to achieve uniform stability of the learning process. Some experimental results on real-world datasets are presented to illustrate the theory.

arxiv情報

著者 Michael Ng,Hanrui Wu,Andy Yip
発行日 2023-08-04 14:21:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク