Energy-Efficient Dynamic Training and Inference for GNN-Based Network Modeling

要約

効率的なネットワークモデリングは、次世代の大規模な複雑なネットワークにおけるリソースの最適化とネットワーク計画に不可欠です。
キューイング理論ベースのモデリングやパケットベースのシミュレーターなどの従来のアプローチは、それぞれの仮定と計算費用のために非効率的です。
これらの課題に対処するために、コンテキスト認識ネットワークモデリングと予測のためのグラフニューラルネットワーク(GNN)ベースのモデルトレーニングと推論フレームワークの革新的なエネルギー効率の高い動的オーケストレーションを提案します。
GNNベースのネットワークモデリングの適応オーケストレーションのための量子近似最適化(QAO)アルゴリズムである、低複合性ソリューションフレームワークQAGを開発しました。
三者グラフモデルを活用して、多くの計算ノードを備えたマルチアプリケーションシステムを表します。
その後、QAOを使用して制約付きグラフカットを適用して、GNNベースのモデルの実行可能なエネルギー効率の高い構成を見つけ、使用可能なコンピューティングノードにそれらを展開して、ネットワークモデリングアプリケーション要件を満たします。
提案されているQAGスキームは、最適なものと密接に一致し、60%低いチャーン率でアプリケーション要件を満たしている間、少なくとも50%のエネルギー節約を提供します。

要約(オリジナル)

Efficient network modeling is essential for resource optimization and network planning in next-generation large-scale complex networks. Traditional approaches, such as queuing theory-based modeling and packet-based simulators, can be inefficient due to the assumption made and the computational expense, respectively. To address these challenges, we propose an innovative energy-efficient dynamic orchestration of Graph Neural Networks (GNN) based model training and inference framework for context-aware network modeling and predictions. We have developed a low-complexity solution framework, QAG, that is a Quantum approximation optimization (QAO) algorithm for Adaptive orchestration of GNN-based network modeling. We leverage the tripartite graph model to represent a multi-application system with many compute nodes. Thereafter, we apply the constrained graph-cutting using QAO to find the feasible energy-efficient configurations of the GNN-based model and deploying them on the available compute nodes to meet the network modeling application requirements. The proposed QAG scheme closely matches the optimum and offers atleast a 50% energy saving while meeting the application requirements with 60% lower churn-rate.

arxiv情報

著者 Chetna Singhal,Yassine Hadjadj-Aoul
発行日 2025-03-24 14:17:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.ET, cs.LG, cs.NI パーマリンク