Short-term wind speed forecasting model based on an attention-gated recurrent neural network and error correction strategy

要約

正確な風速系列予測は、送電網の安全性と風力発電の利用にとって非常に重要です。
それにもかかわらず、その非線形かつ非定常的な性質のため、短期予測は非常に困難です。
したがって、この論文は、改良されたゲート型リカレント ニューラル ネットワーク (AtGRU) と誤差修正戦術を用いた注目の基礎に基づいて、1 つの短期風速予測パターンを提起します。
このモデルは、AtGRU モデルを予備予測器として使用し、GRU モデルを誤り訂正器として使用します。
従来の風速シリーズでは当初、騒音を軽減するためにSSA(特異スペクトル解析)を採用していました。
その後、過去の風速シリーズが予測子のトレーニングに使用されます。
このプロセス中に、予測に特定の誤差が生じる可能性があります。
変分モーダル分解 (VMD) によって処理されたこれらのエラーのシーケンスは、エラー修正者のトレーニングに使用されます。
最終的な予測結果は、予測変数と誤差修正変数の合計にすぎません。
提案された SSA-AtGRU-VMD-GRU モデルは、ウッドバーン、セント トーマス、サンタ クルーズに関する 3 つのケース スタディで比較されたモデルよりも優れています。
このモデルが風速予測の補正を明らかに強化していることが示されています。

要約(オリジナル)

The accurate wind speed series forecast is very pivotal to security of grid dispatching and the application of wind power. Nevertheless, on account of their nonlinear and non-stationary nature, their short-term forecast is extremely challenging. Therefore, this dissertation raises one short-term wind speed forecast pattern on the foundation of attention with an improved gated recurrent neural network (AtGRU) and a tactic of error correction. That model uses the AtGRU model as the preliminary predictor and the GRU model as the error corrector. At the beginning, SSA (singular spectrum analysis) is employed in previous wind speed series for lessening the noise. Subsequently, historical wind speed series is going to be used for the predictor training. During this process, the prediction can have certain errors. The sequence of these errors processed by variational modal decomposition (VMD) is used to train the corrector of error. The eventual forecast consequence is just the sum of predictor forecast and error corrector. The proposed SSA-AtGRU-VMD-GRU model outperforms the compared models in three case studies on Woodburn, St. Thomas, and Santa Cruz. It is indicated that the model evidently enhances the correction of the wind speed forecast.

arxiv情報

著者 Haojian Huang
発行日 2024-04-17 14:27:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, physics.ao-ph パーマリンク