Maximizing Influence with Graph Neural Networks

要約

ネットワーク上の影響力の広がりを最大化するシードセットを見つけることは、よく知られたNP困難な問題である。貪欲なアルゴリズムは最適解に近い解を提供することができるが、影響度推定の副問題が解を非効率にする。本研究では、独立カスケードの影響力の広がりを推定する方法を学習するグラフニューラルネットワークであるⒶtextsc{Glie}を提案します。GLIEは、教師あり学習によって強化される理論的な上限値に依存しています。実験によると、訓練セットの10倍までの大きさの実グラフに対して正確な影響力推定を提供することが示されました。計算効率を向上させるために、我々はまず、GLIEの予測を用いて種子を順次選択することを学習するQ-learning法を考案した。最後に、GLIEの表現に基づく証明可能な劣モジュラ影響拡散を開発し、適応的にシードセットを構築しながらノードをランク付けすることで、最も効率的なアプローチに到達することができました。提案するアルゴリズムは帰納的であり、300ノード以下のグラフと最大5個の種で訓練し、数百万ノードと最大200個の種のグラフでテストすることを意味している。最終的な手法は、時間効率と影響力の質の最も有望な組み合わせを示し、いくつかのベースラインを凌駕する。

要約(オリジナル)

Finding the seed set that maximizes the influence spread over a network is a well-known NP-hard problem. Though a greedy algorithm can provide near-optimal solutions, the subproblem of influence estimation renders the solutions inefficient. In this work, we propose \textsc{Glie}, a graph neural network that learns how to estimate the influence spread of the independent cascade. GLIE relies on a theoretical upper bound that is tightened through supervised training.Experiments indicate that it provides accurate influence estimation for real graphs up to 10 times larger than the train set.Subsequently, we incorporate it into three influence maximization techniques.We first utilize Cost Effective Lazy Forward optimization substituting Monte Carlo simulations with GLIE, surpassing the benchmarks albeit with a computational overhead. To improve computational efficiency we first devise a Q-learning method that learns to choose seeds sequentially using GLIE’s predictions. Finally, we arrive at the most efficient approach by developing a provably submodular influence spread based on GLIE’s representations, to rank nodes while building the seed set adaptively. The proposed algorithms are inductive, meaning they are trained on graphs with less than 300 nodes and up to 5 seeds, and tested on graphs with millions of nodes and up to 200 seeds. The final method exhibits the most promising combination of time efficiency and influence quality, outperforming several baselines.

arxiv情報

著者 George Panagopoulos,Nikolaos Tziortziotis,Fragkiskos D. Malliaros,Michalis Vazirgiannis
発行日 2023-05-11 09:42:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.SI パーマリンク