Energy-Efficient Flying LoRa Gateways: A Multi-Agent Reinforcement Learning Approach

要約

次世代のモノのインターネット(NG-OIT)ネットワークが増加し続けるにつれて、エネルギー需要とともに、接続されたデバイスの数が急速に増加しています。
これにより、リソース管理と持続可能性の課題が生まれます。
したがって、特に電力制限されたIoTデバイスのエネルギー効率の高い通信は、重要な研究焦点です。
このホワイトペーパーでは、無人航空機(UAV)に取り付けられたフライングロラゲートウェイを展開して、LORAエンドデバイスからデータを収集し、中央サーバーに送信しました。
私たちの主な目的は、送信電力、拡散係数、帯域幅、およびユーザーアソシエーションの共同最適化により、ワイヤレスLORAネットワークのグローバルシステムエネルギー効率を最大化することです。
この挑戦的な問題を解決するために、問題を部分的に観察可能なマルコフ決定プロセス(POMDP)としてモデル化します。そこでは、各飛行LORA GWは、協同組合マルチエージェント補強学習(MARL)を使用して学習エージェントとして機能します。
シミュレーション結果は、多因子近位ポリシー最適化アルゴリズムに基づいて提案された方法が、グローバルなシステムエネルギー効率を大幅に改善し、一般的なMARLおよびその他の従来のスキームを上回ることを示しています。

要約(オリジナル)

As next-generation Internet of Things (NG-IoT) networks continue to grow, the number of connected devices is rapidly increasing, along with their energy demands. This creates challenges for resource management and sustainability. Energy-efficient communication, particularly for power-limited IoT devices, is therefore a key research focus. In this paper, we deployed flying LoRa gateways mounted on unmanned aerial vehicles (UAVs) to collect data from LoRa end devices and transmit it to a central server. Our primary objective is to maximize the global system energy efficiency of wireless LoRa networks by joint optimization of transmission power, spreading factor, bandwidth, and user association. To solve this challenging problem, we model the problem as a partially observable Markov decision process (POMDP), where each flying LoRa GW acts as a learning agent using a cooperative multi-agent reinforcement learning (MARL). Simulation results demonstrate that our proposed method, based on the multi-agent proximal policy optimization algorithm, significantly improves the global system energy efficiency and surpasses the popular MARL and other conventional schemes.

arxiv情報

著者 Abdullahi Isa Ahmed,Jamal Bentahar,El Mehdi Amhoud
発行日 2025-05-05 13:46:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NI パーマリンク