要約
近年のグラフニューラルネットワーク(GNN)の進歩により、ランダムノイズを入力特徴として利用することで、多様なタスクにおける表現力を向上させる可能性が模索されている。しかし、素朴にノイズを取り入れると性能が低下する可能性があり、また、特定のタスクのためにノイズを利用するように調整されたアーキテクチャは、優れた性能を発揮するものの、広範な適用性には欠ける。本論文では、慎重な設計なしにGNNにランダムノイズを導入した場合にサンプルの複雑さが増大することを解明する理論的枠組みを構築することで、これらの問題に取り組む。さらに、等変量ノイズGNN(ENGNN)を提案する。ENGNNは、サンプルの複雑さを緩和し、汎化を強化するために、ノイズの対称的な特性を利用する新しいアーキテクチャである。我々の実験により、ノイズを等変量的に用いることで、ノードレベル、リンクレベル、サブグラフ、グラフレベルのタスクの性能が大幅に向上し、特定のタスクのために設計されたモデルに匹敵する性能を達成することが実証された。
要約(オリジナル)
Recent advances in Graph Neural Networks (GNNs) have explored the potential of random noise as an input feature to enhance expressivity across diverse tasks. However, naively incorporating noise can degrade performance, while architectures tailored to exploit noise for specific tasks excel yet lack broad applicability. This paper tackles these issues by laying down a theoretical framework that elucidates the increased sample complexity when introducing random noise into GNNs without careful design. We further propose Equivariant Noise GNN (ENGNN), a novel architecture that harnesses the symmetrical properties of noise to mitigate sample complexity and bolster generalization. Our experiments demonstrate that using noise equivariantly significantly enhances performance on node-level, link-level, subgraph, and graph-level tasks and achieves comparable performance to models designed for specific tasks, thereby offering a general method to boost expressivity across various graph tasks.
arxiv情報
著者 | Xiyuan Wang,Muhan Zhang |
発行日 | 2025-02-04 16:54:28+00:00 |
arxivサイト | arxiv_id(pdf) |