One for All: Unified Workload Prediction for Dynamic Multi-tenant Edge Cloud Platforms

要約

マルチテナントエッジクラウドプラットフォーム(MT-ECP)における作業負荷予測は、効率的なアプリケーション展開とリソースプロビジョニングに不可欠である。しかし、MT-ECPの異種アプリケーションパターン、可変インフラ性能、頻繁なデプロイは、正確で効率的な作業負荷予測に大きな課題をもたらす。動的なMT-ECPモデリングのためのクラスタリングベースの手法は、多数のデータクラスタとモデルを維持する必要があるため、しばしば過大なコストが発生することになる。既存のエンドツーエンドの時系列予測手法は、動的MT-ECPにおいて一貫した予測性能を提供することが困難である。本論文では、動的MT-ECPに統一的な作業負荷予測スキームを提供するために、グローバルプーリングと静的コンテンツ認識を備えたエンドツーエンドのフレームワーク、DynEformerを提案します。綿密に設計されたグローバルプーリングと情報マージ機構は、ローカルの作業負荷予測を推進するために、グローバルなアプリケーションパターンを効果的に識別し利用することができます。静的コンテンツ認識機構の統合により、実世界のシナリオにおけるモデルの堅牢性を高めることができる。5つの実世界データセットでの実験を通じて、DynEformerはMT-ECPの動的シーンで最先端を達成し、MT-ECPの統一されたエンドツーエンド予測スキームを提供しました。

要約(オリジナル)

Workload prediction in multi-tenant edge cloud platforms (MT-ECP) is vital for efficient application deployment and resource provisioning. However, the heterogeneous application patterns, variable infrastructure performance, and frequent deployments in MT-ECP pose significant challenges for accurate and efficient workload prediction. Clustering-based methods for dynamic MT-ECP modeling often incur excessive costs due to the need to maintain numerous data clusters and models, which leads to excessive costs. Existing end-to-end time series prediction methods are challenging to provide consistent prediction performance in dynamic MT-ECP. In this paper, we propose an end-to-end framework with global pooling and static content awareness, DynEformer, to provide a unified workload prediction scheme for dynamic MT-ECP. Meticulously designed global pooling and information merging mechanisms can effectively identify and utilize global application patterns to drive local workload predictions. The integration of static content-aware mechanisms enhances model robustness in real-world scenarios. Through experiments on five real-world datasets, DynEformer achieved state-of-the-art in the dynamic scene of MT-ECP and provided a unified end-to-end prediction scheme for MT-ECP.

arxiv情報

著者 Shaoyuan Huang,Zheng Wang,Heng Zhang,Xiaofei Wang,Cheng Zhang,Wenyu Wang
発行日 2023-06-02 12:56:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 68T07, cs.AI, cs.NI, I.2.1 パーマリンク