Transfer Learning for Latent Variable Network Models

要約

潜在変数ネットワークモデルにおける推定のための転移学習を研究しています。
私たちの設定では、潜在変数が与えられた条件付きエッジ確率行列は、ソースの $P$ とターゲットの $Q$ で表されます。
2 種類のデータが与えられた場合に $Q$ を推定したいとします: (1) $Q$ のノードの $o(1)$ 部分によって引き起こされるサブグラフからのエッジ データ、および (2) すべての $P からのエッジ データ
$。
ソース $P$ がターゲット $Q$ と関係がない場合、推定誤差は $\Omega(1)$ になるはずです。
ただし、潜在変数が共有されている場合、消失誤差が発生する可能性があることを示します。
適切に定義されたグラフ距離の順序付けを利用する効率的なアルゴリズムを提供します。
私たちのアルゴリズムでは $o(1)$ エラーが発生し、ソース ネットワークまたはターゲット ネットワーク上でパラメトリック形式を想定しません。
次に、確率的ブロック モデルの特定のケースについて、ミニマックスの下限を証明し、単純なアルゴリズムがこのレートを達成することを示します。
最後に、現実世界およびシミュレートされたグラフ転送問題に対するアルゴリズムの使用を経験的に示します。

要約(オリジナル)

We study transfer learning for estimation in latent variable network models. In our setting, the conditional edge probability matrices given the latent variables are represented by $P$ for the source and $Q$ for the target. We wish to estimate $Q$ given two kinds of data: (1) edge data from a subgraph induced by an $o(1)$ fraction of the nodes of $Q$, and (2) edge data from all of $P$. If the source $P$ has no relation to the target $Q$, the estimation error must be $\Omega(1)$. However, we show that if the latent variables are shared, then vanishing error is possible. We give an efficient algorithm that utilizes the ordering of a suitably defined graph distance. Our algorithm achieves $o(1)$ error and does not assume a parametric form on the source or target networks. Next, for the specific case of Stochastic Block Models we prove a minimax lower bound and show that a simple algorithm achieves this rate. Finally, we empirically demonstrate our algorithm’s use on real-world and simulated graph transfer problems.

arxiv情報

著者 Akhil Jalan,Arya Mazumdar,Soumendu Sundar Mukherjee,Purnamrita Sarkar
発行日 2024-06-06 16:13:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク