要約
ハイパーグラフは、ソーシャル ネットワークやバイオインフォマティクスなどのアプリケーションで見られるデータ オブジェクト間の高次の関係をモデル化できます。
ただし、グラフ畳み込みネットワークをハイパーグラフに拡張するハイパーグラフ学習に関する最近の研究では、ラベルなしデータの特徴から効果的に学習することができません。
このような学習に対して、自己教師あり対比学習手法を利用してラベル付きデータとラベルなしデータから学習する対比ハイパーグラフ ニューラル ネットワーク CHGNN を提案します。
まず、CHGNN には、自動拡張戦略を採用し、最小限の十分なビューの摂動確率分布を学習する適応型ハイパーグラフ ビュー ジェネレーターが含まれています。
第 2 に、CHGNN には、ハイパーエッジの均一性を考慮して情報を効果的に融合する、改良されたハイパーグラフ エンコーダが組み込まれています。
第三に、CHGNN には、ビュー ジェネレーターの類似性損失、ノード分類損失、および監視信号を注入するためのハイパーエッジ均一性損失を組み合わせた結合損失関数が装備されています。
また、強化されたコントラスト損失トレーニング プロセスに関連する、基本的なおよび相互検証のコントラスト損失も含まれます。
9 つの実際のデータセットに関する実験結果は、CHGNN の有効性についての洞察を提供し、分類精度の点で一貫して 13 の競合他社を上回っていることを示しています。
要約(オリジナル)
Hypergraphs can model higher-order relationships among data objects that are found in applications such as social networks and bioinformatics. However, recent studies on hypergraph learning that extend graph convolutional networks to hypergraphs cannot learn effectively from features of unlabeled data. To such learning, we propose a contrastive hypergraph neural network, CHGNN, that exploits self-supervised contrastive learning techniques to learn from labeled and unlabeled data. First, CHGNN includes an adaptive hypergraph view generator that adopts an auto-augmentation strategy and learns a perturbed probability distribution of minimal sufficient views. Second, CHGNN encompasses an improved hypergraph encoder that considers hyperedge homogeneity to fuse information effectively. Third, CHGNN is equipped with a joint loss function that combines a similarity loss for the view generator, a node classification loss, and a hyperedge homogeneity loss to inject supervision signals. It also includes basic and cross-validation contrastive losses, associated with an enhanced contrastive loss training process. Experimental results on nine real datasets offer insight into the effectiveness of CHGNN, showing that it outperforms 13 competitors in terms of classification accuracy consistently.
arxiv情報
著者 | Yumeng Song,Yu Gu,Tianyi Li,Jianzhong Qi,Zhenghao Liu,Christian S. Jensen,Ge Yu |
発行日 | 2024-05-28 16:42:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google