Diffusion Probabilistic Models for Structured Node Classification

要約

この論文では、グラフ上の構造化されたノード分類について研究します。予測ではノード ラベル間の依存関係を考慮する必要があります。
特に、未知のラベルを予測するために既知のラベルに情報を組み込むことが不可欠である、部分的にラベル付けされたグラフの問題の解決に焦点を当てます。
この問題に対処するために、構造化ノード分類の拡散確率モデル (DPM-SNC) を活用した新しいフレームワークを提案します。
私たちのフレームワークの中心となるのは、(a) 表現力豊かな逆拡散プロセスを使用してラベル全体の同時分布を学習し、(b) 多様体制約サンプリングを利用して既知のラベルに条件付けされた予測を行う DPM-SNC の並外れた機能です。
DPM には部分的にラベル付けされたデータに対するトレーニング アルゴリズムが欠けているため、DPM を適用する新しいトレーニング アルゴリズムを設計し、新しい変分下限を最大化します。
また、古典的な 1-WL テストより厳密に強力な AGG-WL の提案に基づいて、GNN の表現力を強化することで DPM がノード分類にどのようなメリットをもたらすかを理論的に分析します。
部分的にラベル付けされたグラフのトランスダクティブ設定だけでなく、帰納的設定やラベルのないグラフなど、さまざまなシナリオで DPM-SNC の優位性を広範囲に検証しています。

要約(オリジナル)

This paper studies structured node classification on graphs, where the predictions should consider dependencies between the node labels. In particular, we focus on solving the problem for partially labeled graphs where it is essential to incorporate the information in the known label for predicting the unknown labels. To address this issue, we propose a novel framework leveraging the diffusion probabilistic model for structured node classification (DPM-SNC). At the heart of our framework is the extraordinary capability of DPM-SNC to (a) learn a joint distribution over the labels with an expressive reverse diffusion process and (b) make predictions conditioned on the known labels utilizing manifold-constrained sampling. Since the DPMs lack training algorithms for partially labeled data, we design a novel training algorithm to apply DPMs, maximizing a new variational lower bound. We also theoretically analyze how DPMs benefit node classification by enhancing the expressive power of GNNs based on proposing AGG-WL, which is strictly more powerful than the classic 1-WL test. We extensively verify the superiority of our DPM-SNC in diverse scenarios, which include not only the transductive setting on partially labeled graphs but also the inductive setting and unlabeled graphs.

arxiv情報

著者 Hyosoon Jang,Seonghyun Park,Sangwoo Mo,Sungsoo Ahn
発行日 2023-06-19 03:49:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク