要約
この論文では、マルチエージェント強化学習 (MARL) フレームワークを利用して、計算オフロードの決定とマルチチャネル アクセス ポリシーを対応するシグナリングとともに共同学習します。
具体的には、基地局と産業用モノのインターネットのモバイル デバイスは、期限の制約内で計算タスクを実行するために協力する必要がある強化学習エージェントです。
この問題を解決するために、私たちは緊急通信プロトコル学習フレームワークを採用します。
数値結果は、競合ベース、競合なし、および通信なしのアプローチと比較して、チャネル アクセスの成功率と正常に計算されたタスクの数を向上させる緊急通信の有効性を示しています。
さらに、提案されたタスク オフロード ポリシーは、リモートおよびローカルの計算ベースラインを上回ります。
要約(オリジナル)
In this paper, we leverage a multi-agent reinforcement learning (MARL) framework to jointly learn a computation offloading decision and multichannel access policy with corresponding signaling. Specifically, the base station and industrial Internet of Things mobile devices are reinforcement learning agents that need to cooperate to execute their computation tasks within a deadline constraint. We adopt an emergent communication protocol learning framework to solve this problem. The numerical results illustrate the effectiveness of emergent communication in improving the channel access success rate and the number of successfully computed tasks compared to contention-based, contention-free, and no-communication approaches. Moreover, the proposed task offloading policy outperforms remote and local computation baselines.
arxiv情報
著者 | Salwa Mostafa,Mateus P. Mota,Alvaro Valcarce,Mehdi Bennis |
発行日 | 2024-01-23 17:06:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google