要約
このペーパーでは、コード化された多重入力マルチアウトプット(MIMO)システムのソフト入力ソフト出力チャネルイコライゼーションのために、大規模な言語モデル(LLMS)に触発された新しいコンテキスト学習(ICL)フレームワークを紹介します。
提案されたアプローチは、パイロット信号とデコーダーフィードバックのプロンプトから直接後方記号分布を推測することを学びます。
重要な革新は、迅速な増強を使用して、デコーダー出力からの外因性情報を追加のコンテキストとして組み込むことであり、ICLモデルがシンボルの推定をターボデコードの反復間で繰り返し改善できるようにすることです。
変圧器と状態空間アーキテクチャに基づく2つのモデルバリアントが開発および評価されています。
広範なシミュレーションは、従来の線形仮定が崩壊した場合、たとえば低解像度の量子化の存在下で、ICLイコライザーが完全なチャネル状態情報を提供されている場合でも、従来のモデルベースのベースラインを一貫して上回ることを示しています。
結果は、リソースに制約のあるシナリオでの状態モデルの効率と同様に、限られたトレーニングの多様性の下での変圧器ベースのモデルの利点を強調しています。
要約(オリジナル)
This paper introduces a novel in-context learning (ICL) framework, inspired by large language models (LLMs), for soft-input soft-output channel equalization in coded multiple-input multiple-output (MIMO) systems. The proposed approach learns to infer posterior symbol distributions directly from a prompt of pilot signals and decoder feedback. A key innovation is the use of prompt augmentation to incorporate extrinsic information from the decoder output as additional context, enabling the ICL model to refine its symbol estimates iteratively across turbo decoding iterations. Two model variants, based on Transformer and state-space architectures, are developed and evaluated. Extensive simulations demonstrate that, when traditional linear assumptions break down, e.g., in the presence of low-resolution quantization, ICL equalizers consistently outperform conventional model-based baselines, even when the latter are provided with perfect channel state information. Results also highlight the advantage of Transformer-based models under limited training diversity, as well as the efficiency of state-space models in resource-constrained scenarios.
arxiv情報
著者 | Zihang Song,Matteo Zecchin,Bipin Rajendran,Osvaldo Simeone |
発行日 | 2025-05-09 16:29:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google