Load Forecasting for Households and Energy Communities: Are Deep Learning Models Worth the Effort?

要約

多くのエネルギードメインアプリケーションでの予測制御には、正確な負荷予測が重要であり、経済的および生態学的な重要な意味合いがあります。
これらの意味に対処するために、この研究は、エネルギーコミュニティにおける短期負荷予測のための最先端の深い学習モデルの広範なベンチマークを提供します。
つまり、LSTM、XLSTM、およびトランスは、KNNS、合成負荷モデル、永続性予測モデルなどのベンチマークと比較されます。
この比較では、さまざまな尺度の集約(家庭用負荷の数など)とさまざまなトレーニングデータの可用性(トレーニングデータ時間スパンなど)を考慮します。
さらに、合成(標準)負荷プロファイルからの転送学習の影響とディープラーニングモデルサイズ(つまり、パラメーターカウント)は、予測エラーの観点から調査されます。
実装は公開されており、他の研究者はこのフレームワークを使用してモデルをベンチマークすることをお勧めします。
さらに、50世帯のエネルギーコミュニティとバッテリーストレージで構成される包括的なケーススタディは、正確な予測の有益な財政的意味を示しています。
この研究の重要な調査結果には、次のものが含まれます。(1)利用可能なトレーニングデータが6か月以下に制限されている場合、短期負荷予測のディープラーニングモデルを上回る単純な永続ベンチマーク。
(2)公開されている合成負荷プロファイルを備えた事前削除は、トレーニングデータの最初の9か月間に平均1.28%PTだけ正規化された平均絶対誤差(NMAE)を改善します。
(3)集約の増加により、持続性ベンチマークに対する深い学習モデルのパフォーマンスが大幅に向上します。
(4)NMAEが1.1%PTのNMAE削減により、負荷予測の改善は、50世帯を含むエネルギーコミュニティで年間約600EURの経済的利益につながります。

要約(オリジナル)

Accurate load forecasting is crucial for predictive control in many energy domain applications, with significant economic and ecological implications. To address these implications, this study provides an extensive benchmark of state-of-the-art deep learning models for short-term load forecasting in energy communities. Namely, LSTM, xLSTM, and Transformers are compared with benchmarks such as KNNs, synthetic load models, and persistence forecasting models. This comparison considers different scales of aggregation (e.g., number of household loads) and varying training data availability (e.g., training data time spans). Further, the impact of transfer learning from synthetic (standard) load profiles and the deep learning model size (i.e., parameter count) is investigated in terms of forecasting error. Implementations are publicly available and other researchers are encouraged to benchmark models using this framework. Additionally, a comprehensive case study, comprising an energy community of 50 households and a battery storage demonstrates the beneficial financial implications of accurate predictions. Key findings of this research include: (1) Simple persistence benchmarks outperform deep learning models for short-term load forecasting when the available training data is limited to six months or less; (2) Pretraining with publicly available synthetic load profiles improves the normalized Mean Absolute Error (nMAE) by an average of 1.28%pt during the first nine months of training data; (3) Increased aggregation significantly enhances the performance of deep learning models relative to persistence benchmarks; (4) Improved load forecasting, with an nMAE reduction of 1.1%pt, translates to an economic benefit of approximately 600EUR per year in an energy community comprising 50 households.

arxiv情報

著者 Lukas Moosbrugger,Valentin Seiler,Philipp Wohlgenannt,Sebastian Hegenbart,Sashko Ristov,Peter Kepplinger
発行日 2025-01-29 15:58:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク