要約
この論文では、認知無線ネットワーク(CRN)のパフォーマンスを最大化するために、強化学習技術を採用しています。
プライマリユーザー(PU)の存在下では、2人のセカンダリユーザー(SUS)がアンダーレイモード内でライセンスバンドにアクセスすると推定されます。
さらに、SU送信機は、意図した目的地に信号を送信するためにエネルギーを収穫する必要があるエネルギー制約のデバイスであると想定されています。
したがって、私たちは2つの主要なエネルギー源があることを提案します。
PUSの送信と周囲無線周波数(RF)ソースの干渉。
SUは、PUSからエネルギーを収集するか、所定のしきい値に基づいて周囲のソースからのみを収集するかを選択します。
PUSのメッセージからのエネルギー収穫のプロセスは、時間の切り替えアプローチによって達成されます。
さらに、ディープQネットワーク(DQN)アプローチに基づいて、SUトランスミッターは、各タイムスロット中にエネルギーを収集するか、メッセージを送信するかを決定し、平均データレートを最大化するために適切な伝送電力を選択します。
私たちのアプローチは、ベースライン戦略よりも優れており、調査結果に示されているように収束します。
要約(オリジナル)
In this paper, a reinforcement learning technique is employed to maximize the performance of a cognitive radio network (CRN). In the presence of primary users (PUs), it is presumed that two secondary users (SUs) access the licensed band within underlay mode. In addition, the SU transmitter is assumed to be an energy-constrained device that requires harvesting energy in order to transmit signals to their intended destination. Therefore, we propose that there are two main sources of energy; the interference of PUs’ transmissions and ambient radio frequency (RF) sources. The SU will select whether to gather energy from PUs or only from ambient sources based on a predetermined threshold. The process of energy harvesting from the PUs’ messages is accomplished via the time switching approach. In addition, based on a deep Q-network (DQN) approach, the SU transmitter determines whether to collect energy or transmit messages during each time slot as well as selects the suitable transmission power in order to maximize its average data rate. Our approach outperforms a baseline strategy and converges, as shown by our findings.
arxiv情報
著者 | Deemah H. Tashman,Soumaya Cherkaoui,Walaa Hamouda |
発行日 | 2025-05-20 16:38:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google