要約
グラフ ニューラル ネットワーク (GNN) はグラフ分類において目覚ましい成果を上げていますが、多くの場合、豊富なタスク固有のラベルが必要であり、取得に多大なコストがかかる可能性があります。
信頼できる解決策は、追加のラベル付きグラフを探索して、ターゲット ドメインでの教師なし学習を強化することです。
ただし、GNN をドメイン適応に適用する方法は、グラフ トポロジの調査が不十分であり、ドメインの大幅な不一致があるため、未解決のままです。
本稿では、連成学習ブランチから位相情報を抽出し、連成対比学習により領域の不一致を低減する連成対比グラフ表現学習(CoCo)を提案します。
CoCo には、グラフ畳み込みネットワーク ブランチと階層グラフ カーネル ネットワーク ブランチが含まれており、暗黙的および明示的な方法でグラフ トポロジを探索します。
さらに、結合されたブランチを総合的なマルチビュー対比学習フレームワークに組み込みます。これにより、理解を強化するために相補的なビューから学習したグラフ表現が組み込まれるだけでなく、ドメインの調整のために同じセマンティクスを持つクロスドメインのサンプルペア間の類似性も促進されます。
一般的なデータセットに対する広範な実験により、一般に、さまざまな設定において当社の CoCo が競合するベースラインよりも優れたパフォーマンスを発揮することが示されています。
要約(オリジナル)
Although graph neural networks (GNNs) have achieved impressive achievements in graph classification, they often need abundant task-specific labels, which could be extensively costly to acquire. A credible solution is to explore additional labeled graphs to enhance unsupervised learning on the target domain. However, how to apply GNNs to domain adaptation remains unsolved owing to the insufficient exploration of graph topology and the significant domain discrepancy. In this paper, we propose Coupled Contrastive Graph Representation Learning (CoCo), which extracts the topological information from coupled learning branches and reduces the domain discrepancy with coupled contrastive learning. CoCo contains a graph convolutional network branch and a hierarchical graph kernel network branch, which explore graph topology in implicit and explicit manners. Besides, we incorporate coupled branches into a holistic multi-view contrastive learning framework, which not only incorporates graph representations learned from complementary views for enhanced understanding, but also encourages the similarity between cross-domain example pairs with the same semantics for domain alignment. Extensive experiments on popular datasets show that our CoCo outperforms these competing baselines in different settings generally.
arxiv情報
著者 | Nan Yin,Li Shen,Mengzhu Wang,Long Lan,Zeyu Ma,Chong Chen,Xian-Sheng Hua,Xiao Luo |
発行日 | 2024-07-29 14:50:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google