Large-scale Dynamic Network Representation via Tensor Ring Decomposition

要約

タイトル:Tensor Ring分解を用いた大規模ダイナミックネットワークの表現

要約:

・大規模ダイナミックネットワーク(LDNs)は、インターネットの時代においてますます重要性を持つようになっています。しかし、これらのネットワークの動的な性質は、ネットワーク構造の進化とエッジの重みの変化をキャプチャするため、データの分析とモデリングに独自の課題を提供しています。

・テンソル(LFT)の潜在的な因子分解モデルは、LDNの効率的な表現学習を促進します。しかし、既存のLFTモデルはほぼ共通多項式分解(CPF)に基づいています。

・このため、この論文では、LDNの効率的な表現学習に基づくTensor Ring(TR)分解に基づくモデルを提案しています。

・具体的には、TR分解モデルに単一の潜在因子に依存し、非負で乗算更新(SLF-NMU)の原則を組み込み、TR分解の特定のバイアス形式を分析します。

・2つの実際のLDNに関する実験的研究により、提案された方法が既存のモデルより高い精度を達成することが示されました。

要約(オリジナル)

Large-scale Dynamic Networks (LDNs) are becoming increasingly important in the Internet age, yet the dynamic nature of these networks captures the evolution of the network structure and how edge weights change over time, posing unique challenges for data analysis and modeling. A Latent Factorization of Tensors (LFT) model facilitates efficient representation learning for a LDN. But the existing LFT models are almost based on Canonical Polyadic Factorization (CPF). Therefore, this work proposes a model based on Tensor Ring (TR) decomposition for efficient representation learning for a LDN. Specifically, we incorporate the principle of single latent factor-dependent, non-negative, and multiplicative update (SLF-NMU) into the TR decomposition model, and analyze the particular bias form of TR decomposition. Experimental studies on two real LDNs demonstrate that the propose method achieves higher accuracy than existing models.

arxiv情報

著者 Qu Wang
発行日 2023-04-18 08:02:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク