Proximal Policy Optimization with Graph Neural Networks for Optimal Power Flow

要約

最適電力流 (OPF) は、電力システム分野における非常に伝統的な研究分野であり、発電所の最適な動作点を追求し、現実のシナリオで数分ごとに解決する必要があります。
ただし、発電システムで生じる非凸性のため、完全な交流最適電力流 (ACOPF) を実現する高速で堅牢なソリューション技術はまだありません。
過去数十年間で、電力網は電力システムとして知られる典型的な動的で非線形の大規模な制御システムに進化したため、より優れたより高速な ACOPF ソリューションを探すことが重要になってきています。
グラフ ニューラル ネットワーク (GNN) の登場により、電力ネットワークなどのグラフ データに対して機械学習 (ML) アルゴリズムを自然に使用できるようになりました。
一方、深層強化学習 (DRL) は、複雑な意思決定の問題を解決する強力な機能で知られています。
これら 2 つの方法を個別に使用するソリューションが文献に登場し始めていますが、両方の利点を組み合わせたものはまだありません。
最適なパワーフローを解決するために、グラフ ニューラル ネットワークを使用した近接ポリシー最適化アルゴリズムに基づく新しいアーキテクチャを提案します。
目的は、最適化問題の解決方法を学習し、同時に未知のシナリオに一般化できるアーキテクチャを設計することです。
IEEE 30 バス システムで DRL エージェントをトレーニングし、トポロジを変更してそのベース ネットワーク上で OPF を計算した後、コストの観点からソリューションを DCOPF と比較します。

要約(オリジナル)

Optimal Power Flow (OPF) is a very traditional research area within the power systems field that seeks for the optimal operation point of electric power plants, and which needs to be solved every few minutes in real-world scenarios. However, due to the nonconvexities that arise in power generation systems, there is not yet a fast, robust solution technique for the full Alternating Current Optimal Power Flow (ACOPF). In the last decades, power grids have evolved into a typical dynamic, non-linear and large-scale control system, known as the power system, so searching for better and faster ACOPF solutions is becoming crucial. Appearance of Graph Neural Networks (GNN) has allowed the natural use of Machine Learning (ML) algorithms on graph data, such as power networks. On the other hand, Deep Reinforcement Learning (DRL) is known for its powerful capability to solve complex decision-making problems. Although solutions that use these two methods separately are beginning to appear in the literature, none has yet combined the advantages of both. We propose a novel architecture based on the Proximal Policy Optimization algorithm with Graph Neural Networks to solve the Optimal Power Flow. The objective is to design an architecture that learns how to solve the optimization problem and that is at the same time able to generalize to unseen scenarios. We compare our solution with the DCOPF in terms of cost after having trained our DRL agent on IEEE 30 bus system and then computing the OPF on that base network with topology changes

arxiv情報

著者 Ángela López-Cardona,Guillermo Bernárdez,Pere Barlet-Ros,Albert Cabellos-Aparicio
発行日 2024-08-21 14:35:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク