Cell-Free Multi-User MIMO Equalization via In-Context Learning

要約

トランスフォーマーなどの大規模な事前トレーニング済みシーケンス モデルは、インコンテキスト学習 (ICL) が可能な少数ショット学習器として優れています。
ICL では、モデルは、通常は特定のタスクに対するいくつかのトレーニング例の形式で、限られたコンテキスト情報に基づいてその動作を新しいタスクに適応させるようにトレーニングされます。
これまでの研究では、シングルユーザーの多入力多出力 (MIMO) システムにおけるチャネル等化のための ICL の使用について検討してきました。
この研究では、ICL を使用して、フロントホール容量が限られたセルフリー MIMO システムにおけるマルチユーザー等化の問題に取り組むこともできることを実証します。
このシナリオでは、タスクはチャネル統計、信号対雑音比、および変調方式によって定義されます。
コンテキストには、ユーザーのパイロット シーケンス、対応する量子化された受信信号、および現在の受信データ信号が含まれます。
大規模なフェージングおよび変調情報も含む、さまざまなプロンプト設計戦略が提案および評価されます。
実験では、ICL ベースのイコライゼーションは、特にフロントホール容量が限られていてパイロットの汚染がある場合に、線形最小平均二乗誤差イコライザーと比較して、平均二乗誤差が低い推定値を提供することを示しています。

要約(オリジナル)

Large pre-trained sequence models, such as transformers, excel as few-shot learners capable of in-context learning (ICL). In ICL, a model is trained to adapt its operation to a new task based on limited contextual information, typically in the form of a few training examples for the given task. Previous work has explored the use of ICL for channel equalization in single-user multi-input and multiple-output (MIMO) systems. In this work, we demonstrate that ICL can be also used to tackle the problem of multi-user equalization in cell-free MIMO systems with limited fronthaul capacity. In this scenario, a task is defined by channel statistics, signal-to-noise ratio, and modulation schemes. The context encompasses the users’ pilot sequences, the corresponding quantized received signals, and the current received data signal. Different prompt design strategies are proposed and evaluated that encompass also large-scale fading and modulation information. Experiments demonstrate that ICL-based equalization provides estimates with lower mean squared error as compared to the linear minimum mean squared error equalizer, especially in the presence of limited fronthaul capacity and pilot contamination.

arxiv情報

著者 Matteo Zecchin,Kai Zu,Osvaldo Simeone
発行日 2024-04-08 14:06:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IT, cs.LG, eess.SP, math.IT パーマリンク