Total Variation Graph Neural Networks

要約

タイトル: Total Variation Graph Neural Networks

要約:
– グラフニューラルネットワーク(GNN)は、頂点クラスタリングのために提案されました。
– これらのGNNは、スペクトルクラスタリング(SC)リラクゼーションによって近似された教師なしの最小カット目標によって訓練されます。
– しかし、SCリラクゼーションは緩く、閉じた形式の解決策を提供する一方で、頂点を十分に分離しない過剰にスムーズなクラスタ割り当てを提供します。
– この論文では、グラフの全変差(GTV)に基づく最小カットのよりタイトなリラクゼーションを最適化するGNNモデルを提案します。
– クラスタ割り当ては、直接頂点クラスタリングを行うために使用することができます。また、グラフ分類フレームワークのグラフプーリングを実装するためにも使用できます。
– モデルは、i) 隣接する頂点の特徴量の $\ell_1$ 距離を最小化するメッセージパッシングレイヤー、およびii) バランスの取れた分割を確保しながらクラスタ割り当てのGTVを最小化する教師なしの損失関数の2つのコアコンポーネントで構成されます。
– 実験結果は、このモデルが頂点クラスタリングおよびグラフ分類において他のGNNより優れていることを示しています。

要約(オリジナル)

Recently proposed Graph Neural Networks (GNNs) for vertex clustering are trained with an unsupervised minimum cut objective, approximated by a Spectral Clustering (SC) relaxation. However, the SC relaxation is loose and, while it offers a closed-form solution, it also yields overly smooth cluster assignments that poorly separate the vertices. In this paper, we propose a GNN model that computes cluster assignments by optimizing a tighter relaxation of the minimum cut based on graph total variation (GTV). The cluster assignments can be used directly to perform vertex clustering or to implement graph pooling in a graph classification framework. Our model consists of two core components: i) a message-passing layer that minimizes the $\ell_1$ distance in the features of adjacent vertices, which is key to achieving sharp transitions between clusters; ii) an unsupervised loss function that minimizes the GTV of the cluster assignments while ensuring balanced partitions. Experimental results show that our model outperforms other GNNs for vertex clustering and graph classification.

arxiv情報

著者 Jonas Berg Hansen,Filippo Maria Bianchi
発行日 2023-04-27 20:29:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク