Graph Neural Network Generalization with Gaussian Mixture Model Based Augmentation

要約

グラフニューラルネットワーク(GNNS)は、ノードやグラフ分類などのタスクで大きな期待を示していますが、特に目に見えないまたは分散不足(OOD)データに一般化するのに苦労します。
これらの課題は、トレーニングデータのサイズまたは多様性が制限されている場合、悪化します。
これらの問題に対処するために、Rademacherの複雑さを使用して理論的フレームワークを導入して、一般化エラーの後悔を計算し、データ増強の効果を特徴付けます。
このフレームワークは、Gaussian混合モデル(GMMS)の機能を活用する効率的なグラフデータ増強アルゴリズムであるGratinの設計を通知し、分布を近似します。
私たちのアプローチは、一般化の観点から既存の増強技術を上回るだけでなく、時間の複雑さの改善を提供し、実際のアプリケーションに非常に適しています。

要約(オリジナル)

Graph Neural Networks (GNNs) have shown great promise in tasks like node and graph classification, but they often struggle to generalize, particularly to unseen or out-of-distribution (OOD) data. These challenges are exacerbated when training data is limited in size or diversity. To address these issues, we introduce a theoretical framework using Rademacher complexity to compute a regret bound on the generalization error and then characterize the effect of data augmentation. This framework informs the design of GRATIN, an efficient graph data augmentation algorithm leveraging the capability of Gaussian Mixture Models (GMMs) to approximate any distribution. Our approach not only outperforms existing augmentation techniques in terms of generalization but also offers improved time complexity, making it highly suitable for real-world applications.

arxiv情報

著者 Yassine Abbahaddou,Fragkiskos D. Malliaros,Johannes F. Lutzeyer,Amine Mohamed Aboussalah,Michalis Vazirgiannis
発行日 2025-06-06 15:10:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SI, stat.AP, stat.ML パーマリンク