MAG-GNN: Reinforcement Learning Boosted Graph Neural Network

要約

グラフ ニューラル ネットワーク (GNN) は最近、グラフ学習タスクにおける強力なツールとなりましたが、GNN の構造エンコーディング能力を向上させるために多大な努力が費やされてきました。
特定の研究分野では、サブグラフ情報を使用して GNN の表現力を向上させるサブグラフ GNN を提案し、大きな成功を収めました。
ただし、そのような有効性は、考えられるすべての部分グラフを列挙することにより、GNN の効率を犠牲にします。
この論文では、完全なサブグラフ列挙の必要性を分析し、サブグラフの小さなサブセットを考慮することでモデルが同等のレベルの表現力を達成できることを示します。
次に、最適なサブセットの特定を組み合わせ最適化問題として定式化し、この問題を解決するために強化学習 (RL) ブースト GNN であるマグネティック グラフ ニューラル ネットワーク (MAG-GNN) を提案します。
MAG-GNN は、候補サブグラフ セットから開始して、RL エージェントを使用してサブグラフを繰り返し更新し、最も表現力の高い予測セットを見つけます。
これにより、良好な表現力を維持しながら、サブグラフ列挙の指数関数的な複雑さがサブグラフ検索アルゴリズムの一定の複雑さまで軽減されます。
私たちは多くのデータセットに対して広範な実験を実施し、MAG-GNN が最先端の手法に匹敵するパフォーマンスを実現し、さらには多くのサブグラフ GNN を上回るパフォーマンスを示していることを示しています。
また、MAG-GNN がサブグラフ GNN の実行時間を効果的に短縮することも示します。

要約(オリジナル)

While Graph Neural Networks (GNNs) recently became powerful tools in graph learning tasks, considerable efforts have been spent on improving GNNs’ structural encoding ability. A particular line of work proposed subgraph GNNs that use subgraph information to improve GNNs’ expressivity and achieved great success. However, such effectivity sacrifices the efficiency of GNNs by enumerating all possible subgraphs. In this paper, we analyze the necessity of complete subgraph enumeration and show that a model can achieve a comparable level of expressivity by considering a small subset of the subgraphs. We then formulate the identification of the optimal subset as a combinatorial optimization problem and propose Magnetic Graph Neural Network (MAG-GNN), a reinforcement learning (RL) boosted GNN, to solve the problem. Starting with a candidate subgraph set, MAG-GNN employs an RL agent to iteratively update the subgraphs to locate the most expressive set for prediction. This reduces the exponential complexity of subgraph enumeration to the constant complexity of a subgraph search algorithm while keeping good expressivity. We conduct extensive experiments on many datasets, showing that MAG-GNN achieves competitive performance to state-of-the-art methods and even outperforms many subgraph GNNs. We also demonstrate that MAG-GNN effectively reduces the running time of subgraph GNNs.

arxiv情報

著者 Lecheng Kong,Jiarui Feng,Hao Liu,Dacheng Tao,Yixin Chen,Muhan Zhang
発行日 2023-10-29 20:32:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク