要約
光ファイバー増幅器は、現在の光ネットワークの重要な要素です。
これらのコンポーネントに障害が発生すると、影響を受けるリンク上の通信トラフィックが中断されるため、ネットワーク オペレーターの収入に多大な経済的損失が生じます。
予知保全(PdM)のコンテキストで残存耐用年数(RUL)予測を光ファイバ増幅器に適用し、今後のシステム障害を早期に予測することで、対象を絞った保守アクションの計画を通じてネットワーク停止を最小限に抑え、信頼性と安全性を確保します。
光ファイバー増幅器は、さまざまな動作条件下で動作する複雑なシステムであるため、正確な予測が困難になります。
システムの監視機能が向上すると、データ駆動型の RUL 予測手法の適用を容易にするデータセットが得られます。
特に深層学習モデルは優れたパフォーマンスを示していますが、RUL 予測のための比較的小規模なデータセットに基づく一般化は困難です。
本稿では、新しい RUL 予測手法として Sparse Low-ranked self-Attendee Transformer (SLAT) を提案します。
SLAT はエンコーダ/デコーダ アーキテクチャに基づいており、2 つの並列動作するエンコーダがセンサーとタイム ステップの特徴を抽出します。
セルフ アテンション メカニズムを利用することで、長期的な依存関係を長いシーケンスから学習できます。
注意行列のスパース性の実装と低ランクのパラメータ化により、過剰適合が軽減され、汎化が向上します。
EDFA で例示されている光ファイバー増幅器への実験適用と、ターボファン エンジンからの参照データセットは、SLAT が最先端の方法よりも優れていることを示しています。
要約(オリジナル)
Optical fiber amplifiers are key elements in present optical networks. Failures of these components result in high financial loss of income of the network operator as the communication traffic over an affected link is interrupted. Applying Remaining useful lifetime (RUL) prediction in the context of Predictive Maintenance (PdM) to optical fiber amplifiers to predict upcoming system failures at an early stage, so that network outages can be minimized through planning of targeted maintenance actions, ensures reliability and safety. Optical fiber amplifier are complex systems, that work under various operating conditions, which makes correct forecasting a difficult task. Increased monitoring capabilities of systems results in datasets that facilitate the application of data-driven RUL prediction methods. Deep learning models in particular have shown good performance, but generalization based on comparatively small datasets for RUL prediction is difficult. In this paper, we propose Sparse Low-ranked self-Attention Transformer (SLAT) as a novel RUL prediction method. SLAT is based on an encoder-decoder architecture, wherein two parallel working encoders extract features for sensors and time steps. By utilizing the self-attention mechanism, long-term dependencies can be learned from long sequences. The implementation of sparsity in the attention matrix and a low-rank parametrization reduce overfitting and increase generalization. Experimental application to optical fiber amplifiers exemplified on EDFA, as well as a reference dataset from turbofan engines, shows that SLAT outperforms the state-of-the-art methods.
arxiv情報
著者 | Dominic Schneider,Lutz Rapp |
発行日 | 2025-01-15 11:07:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google