Motif Graph Neural Network

要約

グラフは、エンティティ間の複雑な相互作用をモデル化することができ、多くの重要なアプリケーションで自然に登場する。これらのアプリケーションは、しばしば標準的なグラフ学習タスクに落とし込むことができ、その際、低次元のグラフ表現を学習することが重要なステップとなる。グラフニューラルネットワーク(GNN)は、グラフ埋め込みアプローチにおいて現在最も人気のあるモデルである。高次構造を捉えるために、研究者はモチーフに頼ってモチーフベースのGNNを開発した。しかし、既存のモチーフベースGNNは、高次構造に対する識別力が低いという問題がある。上記の限界を克服するために、我々はモチーフグラフニューラルネットワーク(MGNN)を提案する。MGNNは、我々が提案するモチーフの冗長性最小化演算子と射影モチーフの組み合わせに依存し、高次構造をより良く捉えるための新しいフレームワークである。まず、MGNNは各モチーフのノード表現の集合を生成する。次の段階は我々が提案するモチーフ間の冗長度最小化であり、モチーフ同士を比較し、各モチーフに固有の特徴を抽出する。最後に、MGNNは異なるモチーフからの複数の表現を組み合わせることにより、ノード表現の更新を行う。特に、識別力を向上させるために、MGNNは異なるモチーフの表現を結合するために射影関数を利用する。さらに、我々の提案するアーキテクチャがGNNの表現力を高めることを理論解析により示す。ノード分類とグラフ分類の両タスクにおいて、7つの公開ベンチマークでMGNNが最先端の手法を上回ることを実証する。

要約(オリジナル)

Graphs can model complicated interactions between entities, which naturally emerge in many important applications. These applications can often be cast into standard graph learning tasks, in which a crucial step is to learn low-dimensional graph representations. Graph neural networks (GNNs) are currently the most popular model in graph embedding approaches. However, standard GNNs in the neighborhood aggregation paradigm suffer from limited discriminative power in distinguishing \emph{high-order} graph structures as opposed to \emph{low-order} structures. To capture high-order structures, researchers have resorted to motifs and developed motif-based GNNs. However, existing motif-based GNNs still often suffer from less discriminative power on high-order structures. To overcome the above limitations, we propose Motif Graph Neural Network (MGNN), a novel framework to better capture high-order structures, hinging on our proposed motif redundancy minimization operator and injective motif combination. First, MGNN produces a set of node representations w.r.t. each motif. The next phase is our proposed redundancy minimization among motifs which compares the motifs with each other and distills the features unique to each motif. Finally, MGNN performs the updating of node representations by combining multiple representations from different motifs. In particular, to enhance the discriminative power, MGNN utilizes an injective function to combine the representations w.r.t. different motifs. We further show that our proposed architecture increases the expressive power of GNNs with a theoretical analysis. We demonstrate that MGNN outperforms state-of-the-art methods on seven public benchmarks on both node classification and graph classification tasks.

arxiv情報

著者 Xuexin Chen,Ruichu Cai,Yuan Fang,Min Wu,Zijian Li,Zhifeng Hao
発行日 2023-07-03 09:27:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク