GC-Bench: A Benchmark Framework for Graph Condensation with New Insights

要約

グラフ圧縮 (GC) は、元のグラフの重要な情報を保持した大幅に小さなグラフを学習するように設計された新しい手法です。
この凝縮されたグラフは、元のより大きなグラフで達成されるパフォーマンスと同等のパフォーマンスを維持しながら、グラフ ニューラル ネットワークを高速化するのに有望であることが示されています。
さらに、この技術はニューラル アーキテクチャ検索などの下流のアプリケーションを容易にし、大規模なグラフの冗長性についての理解を深めます。
GC 手法の急速な発展にもかかわらず、特定の評価側面に対する重要な設計を明確にするために必要な体系的な評価フレームワークが存在しないままです。
さらに、GC が本質的に特定のグラフのプロパティを保持し、ターゲットを絞った設計努力を行わなくても堅牢性を提供するかどうかなど、いくつかの有意義な疑問は調査されていません。
このペーパーでは、多次元にわたって最近の GC メソッドを評価し、新しい洞察を生成するための包括的なフレームワークである GC-Bench を紹介します。
私たちの実験結果は、GC プロセスと凝縮されたグラフの特性についてのより深い洞察を提供し、パフォーマンスの向上と新しいアプリケーションの探索における今後の取り組みの指針となります。
私たちのコードは \url{https://github.com/Emory-Melody/GraphSlim/tree/main/benchmark} で入手できます。

要約(オリジナル)

Graph condensation (GC) is an emerging technique designed to learn a significantly smaller graph that retains the essential information of the original graph. This condensed graph has shown promise in accelerating graph neural networks while preserving performance comparable to those achieved with the original, larger graphs. Additionally, this technique facilitates downstream applications such as neural architecture search and enhances our understanding of redundancy in large graphs. Despite the rapid development of GC methods, a systematic evaluation framework remains absent, which is necessary to clarify the critical designs for particular evaluative aspects. Furthermore, several meaningful questions have not been investigated, such as whether GC inherently preserves certain graph properties and offers robustness even without targeted design efforts. In this paper, we introduce GC-Bench, a comprehensive framework to evaluate recent GC methods across multiple dimensions and to generate new insights. Our experimental findings provide a deeper insights into the GC process and the characteristics of condensed graphs, guiding future efforts in enhancing performance and exploring new applications. Our code is available at \url{https://github.com/Emory-Melody/GraphSlim/tree/main/benchmark}.

arxiv情報

著者 Shengbo Gong,Juntong Ni,Noveen Sachdeva,Carl Yang,Wei Jin
発行日 2024-06-24 15:17:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク