Application of Transformers for Nonlinear Channel Compensation in Optical Systems

要約

この論文では、Transformers に基づいた新しい非線形光チャネル イコライザーを紹介します。
並列計算を活用し、一連のシンボル全体にわたってメモリに直接アクセスすることにより、コヒーレント長距離伝送システムにおける非線形補償 (NLC) にトランスフォーマーを効果的に使用できることを示します。
このアプリケーションでは、Transformer のエンコーダ部分の実装を提示し、さまざまなハイパーパラメータの広範囲にわたってそのパフォーマンスを分析します。
各繰り返しでシンボルのブロックを適切に埋め込んで処理し、一緒に処理するエンコーダ出力のサブセットを慎重に選択することによって、さまざまな複雑さの制約に対して効率的な非線形等化を達成できることが示されています。
注意メカニズムの計算の複雑さを軽減するために、非線形摂動理論にヒントを得た物理情報マスクの使用をさらに提案します。
また、提案されたデータ駆動型ソリューションの柔軟性と汎用性を実証するために、さまざまな伝送シナリオの下で Transformer-NLC とデジタル バックプロパゲーション (DBP) を比較します。

要約(オリジナル)

In this paper, we introduce a new nonlinear optical channel equalizer based on Transformers. By leveraging parallel computation and attending directly to the memory across a sequence of symbols, we show that Transformers can be used effectively for nonlinear compensation (NLC) in coherent long-haul transmission systems. For this application, we present an implementation of the encoder part of the Transformer and analyze its performance over a wide range of different hyper-parameters. It is shown that by proper embeddings and processing blocks of symbols at each iteration and also carefully selecting subsets of the encoder’s output to be processed together, an efficient nonlinear equalization can be achieved for different complexity constraints. To reduce the computational complexity of the attention mechanism, we further propose the use of a physic-informed mask inspired by nonlinear perturbation theory. We also compare the Transformer-NLC with digital back-propagation (DBP) under different transmission scenarios in order to demonstrate the flexibility and generalizability of the proposed data-driven solution.

arxiv情報

著者 Behnam Behinaein Hamgini,Hossein Najafi,Ali Bakhshali,Zhuhong Zhang
発行日 2024-08-01 15:52:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IT, cs.LG, eess.SP, math.IT パーマリンク