要約
グラフ学習方法は、さまざまな応用分野に広く適用されています。
ただし、どのような種類の固有のグラフ プロパティがあるでしょうか。
グラフの近接性、グラフの構造情報はグラフ表現にエンコードされていますが、下流のタスクの学習についてはまだ調査が不十分です。
この論文では、一連のグラフ学習方法がグラフ表現学習におけるさまざまなレベルの知識をエンコードしているかどうかを調査および解釈するための、新しいグラフ探索フレームワーク (GraphProbe) を提案します。
グラフの固有の特性に基づいて、ノードごとのレベル、パスごとのレベル、構造レベルのそれぞれの異なる観点からグラフ表現の学習プロセスを体系的に調査するための 3 つのプローブを設計します。
ランダム ウォーク ベースのアプローチ、基本的なグラフ ニューラル ネットワーク、および自己教師ありグラフ手法からの 9 つの代表的なグラフ学習手法を使用して徹底的な評価ベンチマークを構築し、ノード分類、リンク予測、およびグラフ分類のための 6 つのベンチマーク データセットでそれらを調査します。
実験評価により、GraphProbe がグラフ表現学習の能力を推定できることが検証されました。
再作成結果は次のように結論付けられています。GCN および WeightedGCN メソッドは、さまざまなタスクに関してより良い結果を達成する比較的汎用性の高いメソッドです。
要約(オリジナル)
Graph learning methods have been extensively applied in diverse application areas. However, what kind of inherent graph properties e.g. graph proximity, graph structural information has been encoded into graph representation learning for downstream tasks is still under-explored. In this paper, we propose a novel graph probing framework (GraphProbe) to investigate and interpret whether the family of graph learning methods has encoded different levels of knowledge in graph representation learning. Based on the intrinsic properties of graphs, we design three probes to systematically investigate the graph representation learning process from different perspectives, respectively the node-wise level, the path-wise level, and the structural level. We construct a thorough evaluation benchmark with nine representative graph learning methods from random walk based approaches, basic graph neural networks and self-supervised graph methods, and probe them on six benchmark datasets for node classification, link prediction and graph classification. The experimental evaluation verify that GraphProbe can estimate the capability of graph representation learning. Remaking results have been concluded: GCN and WeightedGCN methods are relatively versatile methods achieving better results with respect to different tasks.
arxiv情報
| 著者 | Mingyu Zhao,Xingyu Huang,Ziyu Lyu,Yanlin Wang,Lixin Cui,Lu Bai |
| 発行日 | 2024-08-07 16:27:45+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google