A comparative assessment of deep learning models for day-ahead load forecasting: Investigating key accuracy drivers

要約

短期負荷予測 (STLF) は、電力網の日常的な運用に不可欠です。
ただし、電力需要の時系列を特徴付ける非線形性、非定常性、およびランダム性により、STLF は困難な作業になります。
そのために、最新のパフォーマンスを達成すると現在考えられているさまざまな深層学習モデルを含む、前日の負荷予測に関するさまざまな予測方法が文献で提案されています。
このようなモデルの精度を比較するために、全国ネット集計 STLF に焦点を当て、指標アーキテクチャの十分に確立された自己回帰ニューラル ネットワーク、すなわち多層パーセプトロン、N-BEATS、長短期記憶ニューラル ネットワーク、および時間的畳み込みを調べます。
ポルトガルの場合のネットワーク。
各モデルのパフォーマンスに影響を与える要因を調査し、ケースごとに最も適切なものを特定するために、事後分析も行い、予測エラーを主要なカレンダーおよび気象機能と関連付けます。
私たちの結果は、N-BEATS が調査した残りの深層学習モデルよりも一貫して優れていることを示しています。
さらに、外部要因が精度に大きな影響を与え、モデルの実際のパフォーマンスと相対的なパフォーマンスの両方に影響を与える可能性があることがわかりました。

要約(オリジナル)

Short-term load forecasting (STLF) is vital for the daily operation of power grids. However, the non-linearity, non-stationarity, and randomness characterizing electricity demand time series renders STLF a challenging task. To that end, different forecasting methods have been proposed in the literature for day-ahead load forecasting, including a variety of deep learning models that are currently considered to achieve state-of-the-art performance. In order to compare the accuracy of such models, we focus on national net aggregated STLF and examine well-established autoregressive neural networks of indicative architectures, namely multi-layer perceptrons, N-BEATS, long short-term memory neural networks, and temporal convolutional networks, for the case of Portugal. To investigate the factors that affect the performance of each model and identify the most appropriate per case, we also conduct a post-hoc analysis, correlating forecast errors with key calendar and weather features. Our results indicate that N-BEATS consistently outperforms the rest of the examined deep learning models. Additionally, we find that external factors can significantly impact accuracy, affecting both the actual and relative performance of the models.

arxiv情報

著者 Sotiris Pelekis,Ioannis-Konstantinos Seisopoulos,Evangelos Spiliotis,Theodosios Pountridis,Evangelos Karakolis,Spiros Mouzakitis,Dimitris Askounis
発行日 2023-02-23 17:11:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク