Reverse Ordering Techniques for Attention-Based Channel Prediction

要約

本研究では、ノイズの多い観測データに基づいて無線通信システムのチャネルを予測することを目的とし、注意を喚起する配列間モデル(Seq2Seq-attn)とトランスフォーマーモデルを利用します。両モデルとも、チャネル予測という複雑な課題に取り組むために、自然言語処理から採用されたものである。さらに、逆位置符号化という新しい技術をトランスフォーマーモデルに導入し、様々な配列長に対するモデルの頑健性を向上させました。同様に、Seq2Seq-attnモデルのエンコーダ出力は、注意を加える前に反転される。シミュレーションの結果、提案された順序付け技術により、既存の方法とは異なり、シーケンス長に関係なく、シーケンス内のチャネルスナップショット間の関係をモデルがよりよく捉えることができることが示された。

要約(オリジナル)

This work aims to predict channels in wireless communication systems based on noisy observations, utilizing sequence-to-sequence models with attention (Seq2Seq-attn) and transformer models. Both models are adapted from natural language processing to tackle the complex challenge of channel prediction. Additionally, a new technique called reverse positional encoding is introduced in the transformer model to improve the robustness of the model against varying sequence lengths. Similarly, the encoder outputs of the Seq2Seq-attn model are reversed before applying attention. Simulation results demonstrate that the proposed ordering techniques allow the models to better capture the relationships between the channel snapshots within the sequence, irrespective of the sequence length, as opposed to existing methods.

arxiv情報

著者 Valentina Rizzello,Benedikt Böck,Michael Joham,Wolfgang Utschick
発行日 2023-05-11 10:50:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.NI, eess.SP, stat.ML パーマリンク