Joint Energy Dispatch and Unit Commitment in Microgrids Based on Deep Reinforcement Learning

要約

タイトル:深層強化学習に基づくマイクログリッドにおける共同エネルギー配分とユニットコミットメント

要約:

– 再生可能エネルギーを使用したマイクログリッド(MG)の適用が広がり、ダイナミックなエネルギー管理の需要が高まっている。
– 本論文では、ディープ強化学習(DRL)を取り入れ、アイソレートされたMGにおいて、エネルギー配分(ED)とユニットコミットメント(UC)の意思決定のための最適なポリシーを学習することを目的とし、サプライ・デマンドバランスを確保しつつ発電コストを低減することを目的としている。
– 共同EDとUCのための離散-連続ハイブリッドアクションスペースの課題を克服するために、有限ホライズン動的プログラミング(DP)フレームワークに基づいて、深いQネットワーク(DQN)と深い決定論的ポリシーグラデーション(DDPG)の2つのクラシックなDRLアルゴリズムをシームレスに統合したハイブリッドアクション有限ホライズンDDPG(HAFH-DDPG)アルゴリズムを提案している。
– さらに、コンピューテーションの複雑さを低減するための簡略化されたアクションスペースをサポートするためのディーゼル発電機(DG)選択戦略が提示される。
– 最後に、実世界のデータセットによる実験によって、提案されたアルゴリズムの効果をいくつかのベースラインアルゴリズムと比較して検証する。

要約(オリジナル)

Nowadays, the application of microgrids (MG) with renewable energy is becoming more and more extensive, which creates a strong need for dynamic energy management. In this paper, deep reinforcement learning (DRL) is applied to learn an optimal policy for making joint energy dispatch (ED) and unit commitment (UC) decisions in an isolated MG, with the aim for reducing the total power generation cost on the premise of ensuring the supply-demand balance. In order to overcome the challenge of discrete-continuous hybrid action space due to joint ED and UC, we propose a DRL algorithm, i.e., the hybrid action finite-horizon DDPG (HAFH-DDPG), that seamlessly integrates two classical DRL algorithms, i.e., deep Q-network (DQN) and deep deterministic policy gradient (DDPG), based on a finite-horizon dynamic programming (DP) framework. Moreover, a diesel generator (DG) selection strategy is presented to support a simplified action space for reducing the computation complexity of this algorithm. Finally, the effectiveness of our proposed algorithm is verified through comparison with several baseline algorithms by experiments with real-world data set.

arxiv情報

著者 Jiaju Qi,Lei Lei,Kan Zheng,Simon X. Yang
発行日 2023-04-28 23:59:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CE, cs.LG パーマリンク