Foundations and Frontiers of Graph Learning Theory

要約

グラフ学習における最近の進歩は、複雑な構造を持つデータを理解し分析する方法に革命をもたらした。特に、グラフニューラルネットワーク(GNN)、すなわちグラフ表現を学習するために設計されたニューラルネットワークアーキテクチャは、一般的なパラダイムとなっている。これらのモデルは通常、直感に基づく設計や非常に複雑なコンポーネントによって特徴付けられるため、コアコンセプトを抽出するために理論的な解析フレームワークの中に置くことで、機能を駆動する重要な原理をより良く理解し、さらなる開発の指針とすることができる。このような関心の高まりを受けて、本稿では、一般的なグラフ学習モデルに内在する近似と学習動作に関する理論的基礎とブレークスルーを包括的に要約する。表現力、汎化、最適化といった基本的な側面や、オーバー・スムージングやオーバー・スクワッシングといったユニークな現象に関する議論を網羅し、グラフ学習の進化を牽引する理論的基礎とフロンティアを掘り下げる。加えて、いくつかの課題を提示し、可能な解決策についての議論をさらに開始する。

要約(オリジナル)

Recent advancements in graph learning have revolutionized the way to understand and analyze data with complex structures. Notably, Graph Neural Networks (GNNs), i.e. neural network architectures designed for learning graph representations, have become a popular paradigm. With these models being usually characterized by intuition-driven design or highly intricate components, placing them within the theoretical analysis framework to distill the core concepts, helps understand the key principles that drive the functionality better and guide further development. Given this surge in interest, this article provides a comprehensive summary of the theoretical foundations and breakthroughs concerning the approximation and learning behaviors intrinsic to prevalent graph learning models. Encompassing discussions on fundamental aspects such as expressiveness power, generalization, optimization, and unique phenomena such as over-smoothing and over-squashing, this piece delves into the theoretical foundations and frontier driving the evolution of graph learning. In addition, this article also presents several challenges and further initiates discussions on possible solutions.

arxiv情報

著者 Yu Huang,Min Zhou,Menglin Yang,Zhen Wang,Muhan Zhang,Jie Wang,Hong Xie,Hao Wang,Defu Lian,Enhong Chen
発行日 2024-07-03 14:07:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク