要約
グラフ ニューラル ネットワーク (GNN) は、特徴と接続情報の二重性から学習することで、グラフ内のコミュニティを検出するようにトレーニングできます。
現在、GNN の最適化の一般的なアプローチは、ハイパーパラメーターの調整とモデルの選択にグラウンド トゥルースとの比較を使用することです。
この研究では、グラウンドトゥルースとの比較を行わずに、モジュール性のみを最適化することによって、ノードを GNN を使用してコミュニティにクラスタリングできることを示します。
モジュール性はグラフ分割の品質指標ですが、これを使用して、パフォーマンスを低下させることなく特徴をエンコードする GNN を最適化できることを示します。
私たちはさらに一歩進めて、教師なしメトリクスのパフォーマンスがグラウンドトゥルースのパフォーマンスを予測できるかどうかも研究します。
モジュール性を使用して GNN を最適化できる理由を調査するために、このアプローチの限界を示す合成実験を設計します。
合成グラフは、属性付きグラフ内の個別のランダムなゼロ情報空間パーティションにおける現在の機能を強調するために作成されます。
私たちは、モジュール性は、現実世界のデータセットでのハイパーパラメータの最適化とモデルの選択に使用できるほか、グラウンドトゥルースのパフォーマンスを予測するための適切なプロキシとしても使用できると結論付けていますが、空間に矛盾する信号が含まれている場合、GNN は情報の二重性のバランスをとることができません。
要約(オリジナル)
Graph Neural Networks (GNNs) can be trained to detect communities within a graph by learning from the duality of feature and connectivity information. Currently, the common approach for optimisation of GNNs is to use comparisons to ground-truth for hyperparameter tuning and model selection. In this work, we show that nodes can be clustered into communities with GNNs by solely optimising for modularity, without any comparison to ground-truth. Although modularity is a graph partitioning quality metric, we show that this can be used to optimise GNNs that also encode features without a drop in performance. We take it a step further and also study whether the unsupervised metric performance can predict ground-truth performance. To investigate why modularity can be used to optimise GNNs, we design synthetic experiments that show the limitations of this approach. The synthetic graphs are created to highlight current capabilities in distinct, random and zero information space partitions in attributed graphs. We conclude that modularity can be used for hyperparameter optimisation and model selection on real-world datasets as well as being a suitable proxy for predicting ground-truth performance, however, GNNs fail to balance the information duality when the spaces contain conflicting signals.
arxiv情報
著者 | William Leeney,Ryan McConville |
発行日 | 2024-02-20 18:46:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google