A multi-source data power load forecasting method using attention mechanism-based parallel cnn-gru

要約

エネルギー効率を改善し、電源の品質を確保するには、正確な電力負荷予測が不可欠です。
電力負荷予測問題を考慮するには、過去の負荷変動などの動的要因だけでなく、特定の期間にわたって一定に保たれる気候条件などの静的要因も関係します。
この論文では、モデルに依存しない観点から、動的データと静的データの両方から重要な情報を抽出するための並列構造ネットワークを提案します。
まず、複雑性学習理論に基づいて、並列構造を通じて統合されたモデルは、個々の基本学習者と比較して優れた汎化能力を示すことが実証されます。
さらに、基本学習器間の独立性が高いほど、並列構造モデルの汎化能力が強くなります。
これは、機械学習モデルの構造には本質的に重要な情報が含まれていることを示唆しています。
この理論的基盤に基づいて、並列畳み込みニューラル ネットワーク (CNN) とゲート リカレント ユニット (GRU) アテンション モデル (PCGA) が採用され、電力負荷予測の問題に対処し、動的機能と静的機能の影響を効果的に統合することを目指しています。
CNN モジュールは静的データから空間特性をキャプチャする役割を果たし、GRU モジュールは動的時系列データの長期依存関係をキャプチャします。
アテンション層は、並列 CNN-GRU によって抽出された時空間特徴からの重要な情報に焦点を当てるように設計されています。
マルチソース情報の抽出と統合における並列構造モデルの利点を実証するために、一連の実験が行われます。

要約(オリジナル)

Accurate power load forecasting is crucial for improving energy efficiency and ensuring power supply quality. Considering the power load forecasting problem involves not only dynamic factors like historical load variations but also static factors such as climate conditions that remain constant over specific periods. From the model-agnostic perspective, this paper proposes a parallel structure network to extract important information from both dynamic and static data. Firstly, based on complexity learning theory, it is demonstrated that models integrated through parallel structures exhibit superior generalization abilities compared to individual base learners. Additionally, the higher the independence between base learners, the stronger the generalization ability of the parallel structure model. This suggests that the structure of machine learning models inherently contains significant information. Building on this theoretical foundation, a parallel convolutional neural network (CNN)-gate recurrent unit (GRU) attention model (PCGA) is employed to address the power load forecasting issue, aiming to effectively integrate the influences of dynamic and static features. The CNN module is responsible for capturing spatial characteristics from static data, while the GRU module captures long-term dependencies in dynamic time series data. The attention layer is designed to focus on key information from the spatial-temporal features extracted by the parallel CNN-GRU. To substantiate the advantages of the parallel structure model in extracting and integrating multi-source information, a series of experiments are conducted.

arxiv情報

著者 Chao Min,Yijia Wang,Bo Zhang,Xin Ma,Junyi Cui
発行日 2024-09-26 14:38:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク