要約
タイトル:AC電力流のニューラルネットワークモデルのグローバル・パフォーマンス保証
要約:
– 機械学習によって生成されたブラックボックス代理モデルは、非常に高速でかつ高精度である。
– しかしながら、これらのブラックボックスモデルの精度を厳密に検証することは、計算上の課題がある。
– 電力システムにおいて、AC電力流の学習は、最適化、制御、およびダイナミクスのための計算を劇的に高速化するための代理モデルの基盤である。
– 本論文は、非線形AC電力流方程式のグランドトゥルースを取り入れた、トラクタブルニューラルネットワーク確認手順を初めて開発した。
– 私たちの手法は、元の確認問題である混合整数二次計画法(MIQP)の緩い凸化再公式化を活用します。
– STT(シーケンシャル・ターゲット・タイトニング)によって、ターゲットに基づいた切り込みの逐次的追加を使用して、公式化を緊縮させます。
– AC電力流を学習して、14、57、118、および200-bus PGLibテストケースのニューラルネットワークモデルを作成した後、STT手順によって生成されたパフォーマンス保証と、Gurobi 9.5の最新のMIQP解決プログラムによって生成された保証とを比較しました。
– STTは、MIQP上限値よりも桁違いにタイトなパフォーマンス保証を生成することが多いことを示した。
要約(オリジナル)
Machine learning can generate black-box surrogate models which are both extremely fast and highly accurate. Rigorously verifying the accuracy of these black-box models, however, is computationally challenging. When it comes to power systems, learning AC power flow is the cornerstone of any machine learning surrogate model wishing to drastically accelerate computations, whether it is for optimization, control, or dynamics. This paper develops for the first time, to our knowledge, a tractable neural network verification procedure which incorporates the ground truth of the non-linear AC power flow equations to determine worst-case neural network performance. Our approach, termed Sequential Targeted Tightening (STT), leverages a loosely convexified reformulation of the original verification problem, which is a mixed integer quadratic program (MIQP). Using the sequential addition of targeted cuts, we iteratively tighten our formulation until either the solution is sufficiently tight or a satisfactory performance guarantee has been generated. After learning neural network models of the 14, 57, 118, and 200-bus PGLib test cases, we compare the performance guarantees generated by our STT procedure with ones generated by a state-of-the-art MIQP solver, Gurobi 9.5. We show that STT often generates performance guarantees which are orders of magnitude tighter than the MIQP upper bound.
arxiv情報
| 著者 | Samuel Chevalier,Spyros Chatzivasileiadis |
| 発行日 | 2023-05-04 14:45:26+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI