要約
グラフ対照学習(GCL)は、グラフの自己監視学習の分野でかなりの注目を集めていますが、そのパフォーマンスは、意味的に一貫したポジティブペアを生成すると予想されるデータ増強に大きく依存しています。
既存の戦略は通常、ランダムな摂動またはローカル構造の保存に頼りますが、増強されたビュー間のグローバルな構造一貫性に対する明示的な制御を欠いています。
この制限に対処するために、フラクタルグラフの対照学習(FractalgCL)を提案します。これは、グローバルなトポロジーコヒーレンスを実施するためにフラクタルの自己相似性を活用する理論主導の枠組みです。
FractalgClは、2つの重要な革新を導入します。ボックスカバーを介して構造的に整列した肯定的な見解を生成する繰り込みベースの増強。
そして、フラクタルの寸法に従ってグラフ埋め込みを整列させるフラクタル次元認識のコントラスト損失。
2つのイノベーションを組み合わせることで、グラフの表現品質が著しく向上しますが、非自明の計算オーバーヘッドも追加されます。
フラクタル寸法推定の計算オーバーヘッドを緩和するために、元のグラフとリノルマリー化グラフの寸法の矛盾が中心のガウス分布に弱く収束することを証明することにより、ワンショット推定器を導き出します。
この理論的洞察により、寸法計算コストを数桁削減し、全体的なトレーニング時間を約61%削減できます。
この実験は、FractalgCLが標準ベンチマークで最新の結果を提供するだけでなく、トラフィックネットワークの従来のベースラインを約7%の平均マージンで上回ることを示しています。
コードは(https://anonymous.4open.science/r/fractalgcl-0511)で入手できます。
要約(オリジナル)
While Graph Contrastive Learning (GCL) has attracted considerable attention in the field of graph self-supervised learning, its performance heavily relies on data augmentations that are expected to generate semantically consistent positive pairs. Existing strategies typically resort to random perturbations or local structure preservation, yet lack explicit control over global structural consistency between augmented views. To address this limitation, we propose Fractal Graph Contrastive Learning (FractalGCL), a theory-driven framework that leverages fractal self-similarity to enforce global topological coherence. FractalGCL introduces two key innovations: a renormalisation-based augmentation that generates structurally aligned positive views via box coverings; and a fractal-dimension-aware contrastive loss that aligns graph embeddings according to their fractal dimensions. While combining the two innovations markedly boosts graph-representation quality, it also adds non-trivial computational overhead. To mitigate the computational overhead of fractal dimension estimation, we derive a one-shot estimator by proving that the dimension discrepancy between original and renormalised graphs converges weakly to a centred Gaussian distribution. This theoretical insight enables a reduction in dimension computation cost by an order of magnitude, cutting overall training time by approximately 61%. The experiments show that FractalGCL not only delivers state-of-the-art results on standard benchmarks but also outperforms traditional baselines on traffic networks by an average margin of about remarkably 7%. Codes are available at (https://anonymous.4open.science/r/FractalGCL-0511).
arxiv情報
著者 | Nero Z. Li,Xuehao Zhai,Zhichao Shi,Boshen Shi,Xuhui Jiang |
発行日 | 2025-05-16 15:19:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google