要約
ハイブリッド ライト フィデリティ (LiFi) およびワイヤレス フィデリティ (WiFi) ネットワークは、光スペクトルと無線周波数の相補的な物理的特性に起因する、ヘテロジニアス ネットワーク (HetNet) の有望なパラダイムです。
しかし、このような HetNet の現在の開発は、ユーザー機器 (UE) が一度に 1 つのアクセス ポイント (AP) に接続することに制限されている既存の伝送制御プロトコル (TCP) によってほとんどのボトルネックになっています。
マルチパス TCP (MPTCP) に関する継続的な調査は大きな利点をもたらす可能性がありますが、HetNet のネットワーク トポロジが複雑になり、既存の負荷分散 (LB) 学習モデルの効果が低下します。
これに基づいて、MPTCP 対応 HetNet の LB 問題に取り組むグラフ ニューラル ネットワーク (GNN) ベースのモデルを提案します。これにより、部分メッシュ トポロジが生成されます。
このようなトポロジは、チャネル状態情報とデータ レート要件をノードの特徴として埋め込んだグラフとしてモデル化でき、LB ソリューションはエッジ ラベルとみなされます。
従来のディープ ニューラル ネットワーク (DNN) と比較して、提案された GNN ベースのモデルは 2 つの重要な長所を示します。i) 複雑なネットワーク トポロジをより適切に解釈できます。
ii) 単一のトレーニング済みモデルでさまざまな数の AP と UE を処理できます。
シミュレーション結果は、従来の最適化手法と比較して、提案された学習モデルは推論時間を 4 桁短縮しながら、11.5% のギャップ内で最適に近いスループットを達成できることを示しています。
DNN モデルとは対照的に、新しい方法では、同様の推論時間レベルでネットワーク スループットを最大 21.7% 向上させることができます。
要約(オリジナル)
Hybrid light fidelity (LiFi) and wireless fidelity (WiFi) networks are a promising paradigm of heterogeneous network (HetNet), attributed to the complementary physical properties of optical spectra and radio frequency. However, the current development of such HetNets is mostly bottlenecked by the existing transmission control protocol (TCP), which restricts the user equipment (UE) to connecting one access point (AP) at a time. While the ongoing investigation on multipath TCP (MPTCP) can bring significant benefits, it complicates the network topology of HetNets, making the existing load balancing (LB) learning models less effective. Driven by this, we propose a graph neural network (GNN)-based model to tackle the LB problem for MPTCP-enabled HetNets, which results in a partial mesh topology. Such a topology can be modeled as a graph, with the channel state information and data rate requirement embedded as node features, while the LB solutions are deemed as edge labels. Compared to the conventional deep neural network (DNN), the proposed GNN-based model exhibits two key strengths: i) it can better interpret a complex network topology; and ii) it can handle various numbers of APs and UEs with a single trained model. Simulation results show that against the traditional optimisation method, the proposed learning model can achieve near-optimal throughput within a gap of 11.5%, while reducing the inference time by 4 orders of magnitude. In contrast to the DNN model, the new method can improve the network throughput by up to 21.7%, at a similar inference time level.
arxiv情報
著者 | Han Ji,Xiping Wu,Zhihong Zeng,Chen Chen |
発行日 | 2024-10-22 15:49:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google