DA-LSTM: A Dynamic Drift-Adaptive Learning Framework for Interval Load Forecasting with LSTM Networks

要約

負荷予測は、エネルギー管理システム(EMS)において、エネルギースケジューリングの最適化、より柔軟でインテリジェントな電力網システムの実現に重要な役割を果たすため、重要なテーマとなっています。その結果、これらのシステムにより、電力会社は電力市場における需要に迅速に対応することができます。ディープラーニング(DL)モデルは、コンセプトドリフトと呼ばれる顧客の消費パターンの変化に対処するための適応メカニズムに支えられた負荷予測問題で一般的に採用されています。ドリフトを識別するための変化検出方法を設計するために、ドリフトの大きさの閾値を定義する必要がある。負荷予測問題におけるドリフトの大きさは時間と共に大きく変化する可能性があるが、既存の文献では、ドリフトの大きさの閾値が固定されていることが多く、システムの進化中に固定されるのではなく、動的に調整されるべきものである。このギャップに対処するため、本論文では、ドリフト閾値の設定を必要とせずに負荷予測モデルの性能を向上させることができる動的ドリフト適応型長期短期記憶(DA-LSTM)フレームワークを提案します。我々は、能動的適応アプローチと受動的適応アプローチに基づくいくつかの戦略をフレームワークに統合する。DA-LSTMを実環境で評価するために、提案したフレームワークを徹底的に分析し、クラウドベース環境を通じて実問題に導入する。効率性は、各アプローチの予測性能と計算コストの観点から評価する。実験の結果、文献にあるベースライン手法と比較して、我々のフレームワークが達成した複数の評価指標における性能向上が示された。最後に、予測性能と計算コストの間のトレードオフ分析を示す。

要約(オリジナル)

Load forecasting is a crucial topic in energy management systems (EMS) due to its vital role in optimizing energy scheduling and enabling more flexible and intelligent power grid systems. As a result, these systems allow power utility companies to respond promptly to demands in the electricity market. Deep learning (DL) models have been commonly employed in load forecasting problems supported by adaptation mechanisms to cope with the changing pattern of consumption by customers, known as concept drift. A drift magnitude threshold should be defined to design change detection methods to identify drifts. While the drift magnitude in load forecasting problems can vary significantly over time, existing literature often assumes a fixed drift magnitude threshold, which should be dynamically adjusted rather than fixed during system evolution. To address this gap, in this paper, we propose a dynamic drift-adaptive Long Short-Term Memory (DA-LSTM) framework that can improve the performance of load forecasting models without requiring a drift threshold setting. We integrate several strategies into the framework based on active and passive adaptation approaches. To evaluate DA-LSTM in real-life settings, we thoroughly analyze the proposed framework and deploy it in a real-world problem through a cloud-based environment. Efficiency is evaluated in terms of the prediction performance of each approach and computational cost. The experiments show performance improvements on multiple evaluation metrics achieved by our framework compared to baseline methods from the literature. Finally, we present a trade-off analysis between prediction performance and computational costs.

arxiv情報

著者 Firas Bayram,Phil Aupke,Bestoun S. Ahmed,Andreas Kassler,Andreas Theocharis,Jonas Forsman
発行日 2023-05-15 16:26:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク