MATNet: Multi-Level Fusion Transformer-Based Model for Day-Ahead PV Generation Forecasting

要約

再生可能エネルギー発電の正確な予測は、再生可能エネルギーの電力系統への統合を促進するために極めて重要である。PVユニットに焦点を当てると、予測方法は物理ベースとデータベースの戦略の2つの主要カテゴリーに分けることができ、AIベースのモデルは最先端の性能を提供します。しかし、これらのAIベースのモデルは、データ中の複雑なパターンや関係を捉えることはできるが、現象の根底にある物理的な事前知識を無視している。そこで本稿では、多変量多段階前日予測PV発電予測のための、自己注意変換器ベースの新しいアーキテクチャであるMATNetを提案する。MATNetは、AIのパラダイムと、物理学ベースの手法によるPV発電に関する事前の物理的知識を組み合わせたハイブリッド・アプローチで構成されている。このモデルには、過去のPVデータと、マルチレベルジョイントフュージョンアプローチによる過去の気象データと予測気象データが入力される。提案モデルの有効性は、Ausgridベンチマークデータセットを用いて、異なる回帰性能指標で評価される。その結果、我々の提案するアーキテクチャは、現在の最先端手法を大幅に上回ることが示された。これらの結果は、予測精度向上におけるMATNetの可能性を示し、PVエネルギーの電力網への統合を促進する有望なソリューションとなり得ることを示唆している。

要約(オリジナル)

Accurate forecasting of renewable generation is crucial to facilitate the integration of RES into the power system. Focusing on PV units, forecasting methods can be divided into two main categories: physics-based and data-based strategies, with AI-based models providing state-of-the-art performance. However, while these AI-based models can capture complex patterns and relationships in the data, they ignore the underlying physical prior knowledge of the phenomenon. Therefore, in this paper we propose MATNet, a novel self-attention transformer-based architecture for multivariate multi-step day-ahead PV power generation forecasting. It consists of a hybrid approach that combines the AI paradigm with the prior physical knowledge of PV power generation of physics-based methods. The model is fed with historical PV data and historical and forecast weather data through a multi-level joint fusion approach. The effectiveness of the proposed model is evaluated using the Ausgrid benchmark dataset with different regression performance metrics. The results show that our proposed architecture significantly outperforms the current state-of-the-art methods. These findings demonstrate the potential of MATNet in improving forecasting accuracy and suggest that it could be a promising solution to facilitate the integration of PV energy into the power grid.

arxiv情報

著者 Matteo Tortora,Francesco Conte,Gianluca Natrella,Paolo Soda
発行日 2024-03-02 08:51:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, eess.SP パーマリンク