要約
この記事では、パケット光ネットワークのシナリオで最適なルートを見つけるための強化学習アルゴリズムの方法論とオープンソース実装について説明します。
このアルゴリズムは、物理層 (FEC 前のビット誤り率と伝播遅延) とリンク層 (リンク負荷) によって提供される測定値を使用して、そのような測定値に基づいて遅延ベースの報酬とペナルティのセットを構成します。
次に、アルゴリズムは、最適なルーティング戦略を見つけるためのこの報酬セットに基づいて Q 学習を実行します。
さらに、このアルゴリズムは、リンク負荷の変化または Pre-FEC BER によって測定されたリンクの劣化のいずれかに応じて最適なポリシーを再計算することにより、変化するネットワーク条件に動的に適応することが示されています。
要約(オリジナル)
This article provides a methodology and open-source implementation of Reinforcement Learning algorithms for finding optimal routes in a packet-optical network scenario. The algorithm uses measurements provided by the physical layer (pre-FEC bit error rate and propagation delay) and the link layer (link load) to configure a set of latency-based rewards and penalties based on such measurements. Then, the algorithm executes Q-learning based on this set of rewards for finding the optimal routing strategies. It is further shown that the algorithm dynamically adapts to changing network conditions by re-calculating optimal policies upon either link load changes or link degradation as measured by pre-FEC BER.
arxiv情報
著者 | A. L. García Navarro,Nataliia Koneva,Alfonso Sánchez-Macián,José Alberto Hernández,Óscar González de Dios,J. M. Rivas-Moscoso |
発行日 | 2024-06-21 14:35:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google