Federated Transfer Component Analysis Towards Effective VNF Profiling

要約

知識の伝達とデータのプライバシーに対する懸念が増大し、ネットワークにおける従来の収集と分析のパラダイムに挑戦が生じています。
具体的には、仮想ネットワーク機能 (VNF) のインテリジェントなオーケストレーションには、リソース消費の理解とプロファイリングが必要です。
ただし、あらゆる種類の VNF のプロファイリングには時間がかかります。
データをプライベートに保ちながら、適切にプロファイルされた VNF の知識を他のプロファイルの不足した VNF タイプに転送することを検討することが重要です。
この目的を達成するために、この文書では、ソース VNF とターゲット VNF の間の Federated Transfer Component Analysis (FTCA) 方法を提案します。
FTCA はまず、ソース VNF プロファイリング データに基づいて敵対的生成ネットワーク (GAN) をトレーニングし、トレーニングされた GAN モデルがターゲット VNF ドメインに送信されます。
次に、FTCA は、生データをローカルに保持しながら、生成されたソース VNF データと少数のターゲット VNF プロファイリング データを使用してフェデレーテッド ドメイン アダプテーションを実現します。
実験により、提案された FTCA がターゲット VNF に必要なリソースを効果的に予測できることが示されています。
具体的には、回帰モデルの RMSE 指数は 38.5% 減少し、R 二乗指標は最大 68.6% 増加します。

要約(オリジナル)

The increasing concerns of knowledge transfer and data privacy challenge the traditional gather-and-analyse paradigm in networks. Specifically, the intelligent orchestration of Virtual Network Functions (VNFs) requires understanding and profiling the resource consumption. However, profiling all kinds of VNFs is time-consuming. It is important to consider transferring the well-profiled VNF knowledge to other lack-profiled VNF types while keeping data private. To this end, this paper proposes a Federated Transfer Component Analysis (FTCA) method between the source and target VNFs. FTCA first trains Generative Adversarial Networks (GANs) based on the source VNF profiling data, and the trained GANs model is sent to the target VNF domain. Then, FTCA realizes federated domain adaptation by using the generated source VNF data and less target VNF profiling data, while keeping the raw data locally. Experiments show that the proposed FTCA can effectively predict the required resources for the target VNF. Specifically, the RMSE index of the regression model decreases by 38.5% and the R-squared metric advances up to 68.6%.

arxiv情報

著者 Xunzheng ZhangB,Shadi Moazzeni,Juan Marcelo Parra-Ullauri,Reza Nejabati,Dimitra Simeonidou
発行日 2024-04-26 17:31:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.LG, cs.NI パーマリンク