RELDEC: Reinforcement Learning-Based Decoding of Moderate Length LDPC Codes

要約

この研究では、中程度の長さの低密度パリティ チェック (LDPC) コードを順次復号化するための新しいアプローチである RELDEC を提案します。
RELDEC の背後にある主なアイデアは、マルコフ決定プロセス (MDP) に基づく強化学習を通じて、最適化された復号ポリシーがその後取得されるということです。
エージェントが反復ごとに CN のグループ (クラスター) 内で 1 つのチェック ノード (CN) のみをスケジュールすることを学習する以前の作業とは対照的に、この作業では、クラスター内のすべての CN とすべてのクラスターをスケジュールするようにエージェントをトレーニングします。
すべての反復で。
つまり、RELDEC の各学習ステップで、エージェントは、特定のクラスターのスケジューリングの結果に関連付けられた報酬に応じて、CN クラスターを順番にスケジュールすることを学習します。
また、MDP の状態空間表現を変更して、RELDEC が以前の研究で検討したものよりもブロック長の大きいLDPC コードに適できるようにします。
さらに、さまざまなチャネル条件下での復号に対処するために、メタ強化学習を採用したアジャイルメタ RELDEC (AM-RELDEC) を提案します。
提案された RELDEC スキームは、5G 新しい無線用に設計されたコードを含む、さまざまなLDPC コードの標準的なフラッディングおよびランダム シーケンシャル デコードを大幅に上回ります。

要約(オリジナル)

In this work we propose RELDEC, a novel approach for sequential decoding of moderate length low-density parity-check (LDPC) codes. The main idea behind RELDEC is that an optimized decoding policy is subsequently obtained via reinforcement learning based on a Markov decision process (MDP). In contrast to our previous work, where an agent learns to schedule only a single check node (CN) within a group (cluster) of CNs per iteration, in this work we train the agent to schedule all CNs in a cluster, and all clusters in every iteration. That is, in each learning step of RELDEC an agent learns to schedule CN clusters sequentially depending on a reward associated with the outcome of scheduling a particular cluster. We also modify the state space representation of the MDP, enabling RELDEC to be suitable for larger block length LDPC codes than those studied in our previous work. Furthermore, to address decoding under varying channel conditions, we propose agile meta-RELDEC (AM-RELDEC) that employs meta-reinforcement learning. The proposed RELDEC scheme significantly outperforms standard flooding and random sequential decoding for a variety of LDPC codes, including codes designed for 5G new radio.

arxiv情報

著者 Salman Habib,Allison Beemer,Joerg Kliewer
発行日 2023-07-27 16:53:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IT, cs.LG, math.IT パーマリンク