Learning to quantify graph nodes

要約

ネットワークの定量化は、グラフノードの非標識サブセットのクラスの割合を推定する問題です。
事前の確率シフトが再生されている場合、このタスクは、最初にノードを分類し、クラスの予測をカウントすることで効果的に対処することはできません。
さらに、I.I.D。の非関連定量化とは異なります。
データポイント、ネットワークの定量化は、幅広い接続パターン、異種の課題への回復力、およびより大きなネットワークへのスケーリングの効率をキャプチャするための柔軟性の向上を要求します。
これらの厳しい要件を満たすために、XNQを導入します。これは、ランダム化された再帰グラフニューラルネットワークによって計算された監視されていないノード具体化の柔軟性と効率を相乗する新しい方法であり、カリフォルニア化ノード分類子の出力確率に堅牢な定量化対応を提供する期待最大化アルゴリズムを提供します。
包括的なアブレーション実験を通じて、方法を支える設計の選択肢を検証します。
広範な評価では、私たちのアプローチは、これまでの最高のネットワーク定量化方法を一貫して大幅に改善し、それによってこの挑戦的なタスクのために新しい最新の最新技術を設定することがわかります。
同時に、他のグラフ学習ベースの方法よりも最大10倍100倍のトレーニングスピードアップを提供します。

要約(オリジナル)

Network Quantification is the problem of estimating the class proportions in unlabeled subsets of graph nodes. When prior probability shift is at play, this task cannot be effectively addressed by first classifying the nodes and then counting the class predictions. In addition, unlike non-relational quantification on i.i.d. datapoints, Network Quantification demands enhanced flexibility to capture a broad range of connectivity patterns, resilience to the challenge of heterophily, and efficiency to scale to larger networks. To meet these stringent requirements we introduce XNQ, a novel method that synergizes the flexibility and efficiency of the unsupervised node embeddings computed by randomized recursive Graph Neural Networks, with an Expectation-Maximization algorithm that provides a robust quantification-aware adjustment to the output probabilities of a calibrated node classifier. We validate the design choices underpinning our method through comprehensive ablation experiments. In an extensive evaluation, we find that our approach consistently and significantly improves on the best Network Quantification methods to date, thereby setting the new state of the art for this challenging task. Simultaneously, it provides a training speed-up of up to 10x-100x over other graph learning based methods.

arxiv情報

著者 Alessio Micheli,Alejandro Moreo,Marco Podda,Fabrizio Sebastiani,William Simoni,Domenico Tortorella
発行日 2025-03-19 14:43:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク