NodeMixup: Tackling Under-Reaching for Graph Neural Networks

要約

グラフ ニューラル ネットワーク (GNN) は、半教師ありノード分類問題を解決するための主流の方法となっています。
ただし、グラフ内のラベル付きノードの位置分布が不均一であるため、ラベル付きノードにはラベルなしノードのごく一部しかアクセスできず、 \emph{アンダーリーチング} 問題が発生します。
この研究では、まず、さまざまなよく知られたグラフについて実証調査を行うことにより、アンダーリーチングを明らかにします。
次に、系統的な実験解析を通じて、アンダーリーチの結果、ラベル付きノードとラベルなしノード間の分布の整合が不満足になり、GNN のパフォーマンスが大幅に低下することを示します。
GNN のリーチ不足に対処するために、NodeMixup と呼ばれるアーキテクチャに依存しない手法を提案します。
基本的なアイデアは、(1) ラベル付きノードとラベルなしペアの混合によってラベル付きノードの到達可能性を向上させる、(2) クラス内ノード ペアの隣接接続を融合することでグラフ構造を活用して、混合アップのパフォーマンス向上を向上させる、(3​​) を使用することです。
ノード混合のサンプリング重みを決定するためにノード次数を組み込んだ隣接ラベル分布類似度。
広範な実験により、GNN がリーチ不足に対処するのを支援する NodeMixup の有効性が実証されました。
ソース コードは \url{https://github.com/WeigangLu/NodeMixup} で入手できます。

要約(オリジナル)

Graph Neural Networks (GNNs) have become mainstream methods for solving the semi-supervised node classification problem. However, due to the uneven location distribution of labeled nodes in the graph, labeled nodes are only accessible to a small portion of unlabeled nodes, leading to the \emph{under-reaching} issue. In this study, we firstly reveal under-reaching by conducting an empirical investigation on various well-known graphs. Then, we demonstrate that under-reaching results in unsatisfactory distribution alignment between labeled and unlabeled nodes through systematic experimental analysis, significantly degrading GNNs’ performance. To tackle under-reaching for GNNs, we propose an architecture-agnostic method dubbed NodeMixup. The fundamental idea is to (1) increase the reachability of labeled nodes by labeled-unlabeled pairs mixup, (2) leverage graph structures via fusing the neighbor connections of intra-class node pairs to improve performance gains of mixup, and (3) use neighbor label distribution similarity incorporating node degrees to determine sampling weights for node mixup. Extensive experiments demonstrate the efficacy of NodeMixup in assisting GNNs in handling under-reaching. The source code is available at \url{https://github.com/WeigangLu/NodeMixup}.

arxiv情報

著者 Weigang Lu,Ziyu Guan,Wei Zhao,Yaming Yang,Long Jin
発行日 2023-12-21 03:02:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク