要約
高次グラフ ニューラル ネットワーク (HO-GNN) は、ラベル分布がグラフ構造と相関しない、異好性領域における一貫した潜在空間を推論するために開発されました。
ただし、既存の HO-GNN のほとんどはホップベースです。つまり、遷移行列のパワーに依存しています。
結果として、これらのアーキテクチャは分類損失に対して完全には反応せず、実現された構造フィルターは静的なサポートを持ちます。
言い換えれば、これらのネットワークではフィルターのサポートも係数も学習できません。
その代わり、彼らはフィルターの組み合わせを学習することに限定されています。
上記の懸念に対処するために、ジャンプで動作する漸近拡散距離に依存する方法である拡散ジャンプ GNN を提案します。
拡散ポンプはペアごとの距離を生成し、その投影によって各構造フィルターのサポートと係数の両方が決まります。
これらのフィルターは、同じラベルを持つ散在するノード間の結合を見つけるために広範囲のスケールを探索するため、ジャンプと呼ばれます。
実際には、プロセス全体は分類損失によって制御されます。
ジャンプと拡散距離は両方とも分類エラーに反応します (つまり、それらは学習可能です)。
同性愛、つまり異好性領域における区分的に滑らかな潜在空間を学習するプロセスは、ディリクレ問題として定式化されます。既知のラベルによって境界ノードが決定され、拡散ポンプによって標準的な教師なしグループからの半教師ありグループの逸脱が最小限に抑えられます。
グループ化。
これにより、分類誤差を最小限に抑えるために、拡散距離とその結果としてジャンプの両方の更新がトリガーされます。
ディリクレ公式にはいくつかの利点があります。
それは、エッジ異質性を超えた新しい尺度である構造的異質性の定義につながります。
また、(学習可能な) 拡散距離とのリンクを調査し、ランダム ウォークや確率的拡散を吸収することもできます。
要約(オリジナル)
High-order Graph Neural Networks (HO-GNNs) have been developed to infer consistent latent spaces in the heterophilic regime, where the label distribution is not correlated with the graph structure. However, most of the existing HO-GNNs are hop-based, i.e., they rely on the powers of the transition matrix. As a result, these architectures are not fully reactive to the classification loss and the achieved structural filters have static supports. In other words, neither the filters’ supports nor their coefficients can be learned with these networks. They are confined, instead, to learn combinations of filters. To address the above concerns, we propose Diffusion-jump GNNs a method relying on asymptotic diffusion distances that operates on jumps. A diffusion-pump generates pairwise distances whose projections determine both the support and coefficients of each structural filter. These filters are called jumps because they explore a wide range of scales in order to find bonds between scattered nodes with the same label. Actually, the full process is controlled by the classification loss. Both the jumps and the diffusion distances react to classification errors (i.e. they are learnable). Homophiliation, i.e., the process of learning piecewise smooth latent spaces in the heterophilic regime, is formulated as a Dirichlet problem: the known labels determine the border nodes and the diffusion-pump ensures a minimal deviation of the semi-supervised grouping from a canonical unsupervised grouping. This triggers the update of both the diffusion distances and, consequently, the jumps in order to minimize the classification error. The Dirichlet formulation has several advantages. It leads to the definition of structural heterophily, a novel measure beyond edge heterophily. It also allows us to investigate links with (learnable) diffusion distances, absorbing random walks and stochastic diffusion.
arxiv情報
著者 | Ahmed Begga,Francisco Escolano,Miguel Angel Lozano,Edwin R. Hancock |
発行日 | 2023-06-29 14:31:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google