An Adaptive Latent Factorization of Tensors Model for Embedding Dynamic Communication Network

要約

ダイナミック コミュニケーション ネットワーク (DCN) は、さまざまな通信ノード間の経時的な相互作用を記述し、ビッグデータ アプリケーションでデータ ソースとして広く使用されています。
通信ノードの数が増加し、時間スロットが蓄積すると、各ノードは特定の時間スロット内で少数のノードとのみ対話し、DCN は高次元スパース (HDS) テンソルで表すことができます。
DCN の HDS テンソルから豊富な動作パターンを抽出するために、この論文では、適応型時間依存テンソル低ランク表現 (ATT) モデルを提案します。
これは 3 つのアプローチを採用しています。a) 時間特性行列を再構成するための時間依存の方法を設計し、それによって時間パターンを捕捉してデータを正確に表現します。
b) 退屈なハイパーパラメータ調整を回避するために、差分進化アルゴリズム (DEA) を介してモデルのハイパーパラメータ適応を実現します。
c) HDS データに固有の非負性を効果的に処理するために、モデル パラメーターに非負の学習スキームを採用します。
4 つの現実世界の DCN での実験結果は、提案された ATT モデルが、予測誤差と収束ラウンドの両方でいくつかの最先端のモデルよりも大幅に優れていることを示しています。

要約(オリジナル)

The Dynamic Communication Network (DCN) describes the interactions over time among various communication nodes, and it is widely used in Big-data applications as a data source. As the number of communication nodes increases and temporal slots accumulate, each node interacts in with only a few nodes in a given temporal slot, the DCN can be represented by an High-Dimensional Sparse (HDS) tensor. In order to extract rich behavioral patterns from an HDS tensor in DCN, this paper proposes an Adaptive Temporal-dependent Tensor low-rank representation (ATT) model. It adopts a three-fold approach: a) designing a temporal-dependent method to reconstruct temporal feature matrix, thereby precisely represent the data by capturing the temporal patterns; b) achieving hyper-parameters adaptation of the model via the Differential Evolutionary Algorithms (DEA) to avoid tedious hyper-parameters tuning; c) employing nonnegative learning schemes for the model parameters to effectively handle an the nonnegativity inherent in HDS data. The experimental results on four real-world DCNs demonstrate that the proposed ATT model significantly outperforms several state-of-the-art models in both prediction errors and convergence rounds.

arxiv情報

著者 Xin Liao,Qicong Hu,Peng Tang
発行日 2024-08-29 14:40:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP パーマリンク