要約
最近、無線通信システムの送信機と受信機の両方を共同で最適化するために、エンドツーエンド (E2E) 学習ベースの概念が導入されました。
残念ながら、この E2E 学習アーキテクチャでは、トランシーバーでディープ ニューラル ネットワーク (DNN) を共同でトレーニングするための事前の微分可能なチャネル モデルが必要ですが、実際にはこれを取得することはほとんどありません。
このペーパーは、DDPG (Deep Deterministic Policy Gradient) ベースのフレームワークを開発することで、この問題を解決することを目的としています。
特に、提案されたソリューションは、送信機 DNN をトレーニングするための報酬として受信機 DNN の損失値を使用します。
シミュレーション結果は、私たちが提案するソリューションが、事前のチャネル モデルを必要とせずに、送信機と受信機を共同でトレーニングできることを示しています。
さらに、提案された DDPG ベースのソリューションが、最先端のソリューションと比較して優れた検出パフォーマンスを達成できることを実証します。
要約(オリジナル)
End-to-End (E2E) learning-based concept has been recently introduced to jointly optimize both the transmitter and the receiver in wireless communication systems. Unfortunately, this E2E learning architecture requires a prior differentiable channel model to jointly train the deep neural networks (DNNs) at the transceivers, which is hardly obtained in practice. This paper aims to solve this issue by developing a deep deterministic policy gradient (DDPG)-based framework. In particular, the proposed solution uses the loss value of the receiver DNN as the reward to train the transmitter DNN. The simulation results then show that our proposed solution can jointly train the transmitter and the receiver without requiring the prior channel model. In addition, we demonstrate that the proposed DDPG-based solution can achieve better detection performance compared to the state-of-the-art solutions.
arxiv情報
| 著者 | Bolun Zhang,Nguyen Van Huynh |
| 発行日 | 2023-08-07 16:10:43+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google