On the Optimality of Single-label and Multi-label Neural Network Decoders

要約

前方エラー補正のためにデコーダとして最近提案された2つのニューラルネットワーク(NN)アーキテクチャの設計を調査します:いわゆるシングルラベルNN(SLNN)およびマルチラベルNN(MLNN)デコーダー。
これらのデコーダーは、それぞれ最適なコードワードとビットワイズのパフォーマンスを達成することが報告されています。
文献の結果は、さまざまな短いコードの最適性に近いことを示しています。
この論文では、特定のSLNNおよびMLNNアーキテクチャが、実際には、コードに関係なく、常に最適なデコードを実現できることを分析的に証明します。
これらの最適なアーキテクチャとそのバイナリの重みは、コードブックによって定義されることが示されています。つまり、トレーニングやネットワークの最適化は必要ありません。
提案されているアーキテクチャは、実際にはNNSではなく、最尤デコードルールを実装する別の方法です。
最適なパフォーマンスは、$(7,4)$、Polar $(16,8)$、およびBCH $(31,21)$コードをハミングするために数値的に実証されています。
結果は、私たちの最適なアーキテクチャは、文献で提案されているSLNNおよびMLNNアーキテクチャよりも複雑ではないことを示しています。
より長いコードへの拡張は、次元の呪いによってまだ妨げられています。
したがって、SLNNとMLNNは最尤デコードを実行できますが、そのようなアーキテクチャは中程度および長いコードに使用することはできません。

要約(オリジナル)

We investigate the design of two neural network (NN) architectures recently proposed as decoders for forward error correction: the so-called single-label NN (SLNN) and multi-label NN (MLNN) decoders. These decoders have been reported to achieve near-optimal codeword- and bit-wise performance, respectively. Results in the literature show near-optimality for a variety of short codes. In this paper, we analytically prove that certain SLNN and MLNN architectures can, in fact, always realize optimal decoding, regardless of the code. These optimal architectures and their binary weights are shown to be defined by the codebook, i.e., no training or network optimization is required. Our proposed architectures are in fact not NNs, but a different way of implementing the maximum likelihood decoding rule. Optimal performance is numerically demonstrated for Hamming $(7,4)$, Polar $(16,8)$, and BCH $(31,21)$ codes. The results show that our optimal architectures are less complex than the SLNN and MLNN architectures proposed in the literature, which in fact only achieve near-optimal performance. Extension to longer codes is still hindered by the curse of dimensionality. Therefore, even though SLNN and MLNN can perform maximum likelihood decoding, such architectures cannot be used for medium and long codes.

arxiv情報

著者 Yunus Can Gültekin,Péter Scheepers,Yuncheng Yuan,Federico Corradi,Alex Alvarado
発行日 2025-03-24 15:07:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP パーマリンク