Structural Node Embeddings with Homomorphism Counts

要約

グラフ準同型カウントは、1967 年に Lov\’asz によって初めて研究され、最近、グラフベースの機械学習の強力なツールとして関心を集めています。
Grohe (PODS 2020) は、グラフ レベルおよびノー​​ド レベルのタスクでの機械学習で準同型性カウントを使用するための理論的基盤を提案しました。
まさにその性質上、これらは局所的な構造情報を捕捉し、堅牢な構造埋め込みの作成を可能にします。
グラフ レベルのタスクに対する最初のアプローチは Nguyen と Maehara (ICML 2020) によって行われましたが、我々は準同型性カウント ベースのノード埋め込みの有効性を実験的に示します。
ノード ラベル、ノードの重み、エッジの重みを強化することで、グラフ データの解釈可能な表現が提供され、機械学習モデルの説明可能性が向上します。
我々は、さまざまな下流タスクに役立つ、同型不変準同型カウントベースの埋め込みの理論的枠組みを提案します。
私たちのアプローチは、有界ツリー幅グラフ クラスのグラフ準同型カウントの効率的な計算可能性を利用しており、現実世界のアプリケーションにとって実用的なソリューションとなります。
ベンチマーク データセットの実験を通じてその表現力を実証します。
私たちの結果は、最先端のニューラル アーキテクチャの精度には匹敵しませんが、他の高度なグラフ学習モデルと同等です。
注目すべきことに、私たちのアプローチは、個々の機能の説明可能性を確保することによってそれ自体を区別しています。
SVM やランダム フォレストなどの解釈可能な機械学習アルゴリズムを統合することで、シームレスでエンドツーエンドの説明可能なパイプラインを確立します。
私たちの研究は、パフォーマンスと解釈可能性の両方を提供するグラフベースの技術の進歩に貢献します。

要約(オリジナル)

Graph homomorphism counts, first explored by Lov\’asz in 1967, have recently garnered interest as a powerful tool in graph-based machine learning. Grohe (PODS 2020) proposed the theoretical foundations for using homomorphism counts in machine learning on graph level as well as node level tasks. By their very nature, these capture local structural information, which enables the creation of robust structural embeddings. While a first approach for graph level tasks has been made by Nguyen and Maehara (ICML 2020), we experimentally show the effectiveness of homomorphism count based node embeddings. Enriched with node labels, node weights, and edge weights, these offer an interpretable representation of graph data, allowing for enhanced explainability of machine learning models. We propose a theoretical framework for isomorphism-invariant homomorphism count based embeddings which lend themselves to a wide variety of downstream tasks. Our approach capitalises on the efficient computability of graph homomorphism counts for bounded treewidth graph classes, rendering it a practical solution for real-world applications. We demonstrate their expressivity through experiments on benchmark datasets. Although our results do not match the accuracy of state-of-the-art neural architectures, they are comparable to other advanced graph learning models. Remarkably, our approach demarcates itself by ensuring explainability for each individual feature. By integrating interpretable machine learning algorithms like SVMs or Random Forests, we establish a seamless, end-to-end explainable pipeline. Our study contributes to the advancement of graph-based techniques that offer both performance and interpretability.

arxiv情報

著者 Hinrikus Wolf,Luca Oeljeklaus,Pascal Kühner,Martin Grohe
発行日 2023-08-29 13:14:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク