要約
【タイトル】パラメータ化分解とフィルタリングによるグラフ表現学習の改良へ向けて
【要約】
– グラフ表現を効果的かつ柔軟に表現するための行列の開発は、多くの観点から探求されてきたfundamentalな課題である。
– 本研究では、パラメータ化分解とフィルタリングの観点から既存のGNNモデルを統一する新しい枠組みを開発し、これによりGNNの柔軟性を向上させると同時に、既存モデルの滑らかさと増幅問題を緩和する方法を示す。
– 本質的には、学習可能な多項式フィルタを持つスペクトルグラフ畳み込みがこの枠組みの制約の変種であることを示し、これらの制約を解放することで、モデルが同時に必要な分解とフィルタリングを表現できるようにすることができることを示している。
– この一般的な枠組みに基づいて、実装が簡単なモデルを開発し、さまざまなグラフ学習タスクで大幅な改善と計算効率を達成する。Codeは https://github.com/qslim/PDF から入手可能。
要約(オリジナル)
Proposing an effective and flexible matrix to represent a graph is a fundamental challenge that has been explored from multiple perspectives, e.g., filtering in Graph Fourier Transforms. In this work, we develop a novel and general framework which unifies many existing GNN models from the view of parameterized decomposition and filtering, and show how it helps to enhance the flexibility of GNNs while alleviating the smoothness and amplification issues of existing models. Essentially, we show that the extensively studied spectral graph convolutions with learnable polynomial filters are constrained variants of this formulation, and releasing these constraints enables our model to express the desired decomposition and filtering simultaneously. Based on this generalized framework, we develop models that are simple in implementation but achieve significant improvements and computational efficiency on a variety of graph learning tasks. Code is available at https://github.com/qslim/PDF.
arxiv情報
著者 | Mingqi Yang,Wenjie Feng,Yanming Shen,Bryan Hooi |
発行日 | 2023-05-10 12:42:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI