Deep Deterministic Policy Gradient for End-to-End Communication Systems without Prior Channel Knowledge

要約

近年、無線通信システムにおいて、送信機と受信機の両方を共同で最適化するために、End-to-End(E2E)学習ベースのコンセプトが導入されています。しかし、このE2E学習アーキテクチャは、送受信機のディープニューラルネットワーク(DNN)を共同学習するために、事前に微分可能なチャネルモデルを必要とし、これは実際にはほとんど得られない。本論文では、深層決定性政策勾配(DDPG)ベースのフレームワークを開発することにより、この問題を解決することを目的とする。特に、提案するソリューションでは、受信機DNNの損失値を送信機DNNを訓練するための報酬として使用する。そして、シミュレーションの結果、提案するソリューションが、事前のチャネルモデルを必要とせずに、送信機と受信機を共同で訓練できることを示す。さらに、提案するDDPGベースのソリューションが、最先端のソリューションと比較して、より優れた検出性能を達成できることを実証する。

要約(オリジナル)

End-to-End (E2E) learning-based concept has been recently introduced to jointly optimize both the transmitter and the receiver in wireless communication systems. Unfortunately, this E2E learning architecture requires a prior differentiable channel model to jointly train the deep neural networks (DNNs) at the transceivers, which is hardly obtained in practice. This paper aims to solve this issue by developing a deep deterministic policy gradient (DDPG)-based framework. In particular, the proposed solution uses the loss value of the receiver DNN as the reward to train the transmitter DNN. The simulation results then show that our proposed solution can jointly train the transmitter and the receiver without requiring the prior channel model. In addition, we demonstrate that the proposed DDPG-based solution can achieve better detection performance compared to the state-of-the-art solutions.

arxiv情報

著者 Bolun Zhang,Nguyen Van Huynh
発行日 2023-05-12 13:05:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.NI パーマリンク