Creating generalizable downstream graph models with random projections

要約

モデルがグラフ間で一般化できるようにするグラフ表現学習アプローチを調査します。1 つのグラフの表現を使用してトレーニングされたモデルが与えられた場合、私たちの目標は、モデルのトレーニング中に見えない新しいグラフで計算された表現が与えられたときに、同じモデル パラメーターを使用して推論を適用することです。
推論精度の低下を最小限に抑えます。
これは、同じグラフの見えないノードで推論を行う、より一般的なタスクとは対照的です。
ランダム射影を使用して遷移行列の複数の累乗を推定すると、さまざまなタスクで使用できる同形不変の機能のセットを構築できることを示します。
結果として得られる特徴を使用して、ノードのローカル近傍に関する十分な情報を回復し、計算効率を維持しながら、他のアプローチと競合する関連性を持つ推論を有効にすることができます。

要約(オリジナル)

We investigate graph representation learning approaches that enable models to generalize across graphs: given a model trained using the representations from one graph, our goal is to apply inference using those same model parameters when given representations computed over a new graph, unseen during model training, with minimal degradation in inference accuracy. This is in contrast to the more common task of doing inference on the unseen nodes of the same graph. We show that using random projections to estimate multiple powers of the transition matrix allows us to build a set of isomorphism-invariant features that can be used by a variety of tasks. The resulting features can be used to recover enough information about the local neighborhood of a node to enable inference with relevance competitive to other approaches while maintaining computational efficiency.

arxiv情報

著者 Anton Amirov,Chris Quirk,Jennifer Neville
発行日 2023-02-17 14:27:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク