Explanation-Preserving Augmentation for Semi-Supervised Graph Representation Learning

要約

グラフ拡張手法によって強化されたグラフ表現学習 (GRL) は、ノード分類やグラフ分類などの幅広いタスクでパフォーマンスの向上を達成する効果的な手法として浮上しました。
自己教師あり GRL では、ペアになったグラフ拡張が各グラフから生成されます。
その目的は、同じグラフの拡張については同様の表現を推測することですが、異なるグラフの拡張については最大限に区別可能な表現を推測することです。
画像および言語ドメインと同様に、理想的な拡張方法の要求には、(1) 意味論の保存、および (2) 意味の保存の両方が含まれます。
(2) データ摂動。
つまり、拡張グラフは、十分な分散を持ちながら、元のグラフのセマンティクスを保持する必要があります。
ただし、既存の (非)/自己教師あり GRL 手法のほとんどはデータの摂動に焦点を当てていますが、セマンティクスの保存はほとんど無視されています。
この課題に対処するために、この論文では、意味論の保存とデータ摂動の間のギャップを埋めることができる拡張グラフを生成するためのグラフ説明技術を活用する、新しい方法である説明保存拡張 (EPA) を提案します。
EPA はまず、少数のラベルを使用してグラフの説明者をトレーニングし、グラフのセマンティクスに最も関連する部分構造 (説明) を推測します。
これらの説明は、自己教師あり GRL、つまり EPA-GRL の意味を保持する拡張を生成するために使用されます。
私たちは、分析例を使用し、さまざまなベンチマーク データセットでの広範な実験を通じて、EPA-GRL がセマンティクスに依存しないデータ拡張に基づいて構築された最先端 (SOTA) GRL 手法よりも優れていることを理論的に実証します。

要約(オリジナル)

Graph representation learning (GRL), enhanced by graph augmentation methods, has emerged as an effective technique achieving performance improvements in wide tasks such as node classification and graph classification. In self-supervised GRL, paired graph augmentations are generated from each graph. Its objective is to infer similar representations for augmentations of the same graph, but maximally distinguishable representations for augmentations of different graphs. Analogous to image and language domains, the desiderata of an ideal augmentation method include both (1) semantics-preservation; and (2) data-perturbation; i.e., an augmented graph should preserve the semantics of its original graph while carrying sufficient variance. However, most existing (un-)/self-supervised GRL methods focus on data perturbation but largely neglect semantics preservation. To address this challenge, in this paper, we propose a novel method, Explanation-Preserving Augmentation (EPA), that leverages graph explanation techniques for generating augmented graphs that can bridge the gap between semantics-preservation and data-perturbation. EPA first uses a small number of labels to train a graph explainer to infer the sub-structures (explanations) that are most relevant to a graph’s semantics. These explanations are then used to generate semantics-preserving augmentations for self-supervised GRL, namely EPA-GRL. We demonstrate theoretically, using an analytical example, and through extensive experiments on a variety of benchmark datasets that EPA-GRL outperforms the state-of-the-art (SOTA) GRL methods, which are built upon semantics-agnostic data augmentations.

arxiv情報

著者 Zhuomin Chen,Jingchao Ni,Hojat Allah Salehi,Xu Zheng,Esteban Schafir,Farhad Shirani,Dongsheng Luo
発行日 2024-10-16 15:18:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク