Forecasting the steam mass flow in a powerplant using the parallel hybrid network

要約

効率的で持続可能な発電は、エネルギー分野における重大な関心事です。
特に火力発電所は、運用効率とコスト削減にとって重要な蒸気質量流量の正確な予測に取り組んでいます。
この研究では、パラメータ化された量子回路と、工業環境における時系列予測用に特別に設計された従来のフィードフォワード ニューラル ネットワークを組み合わせた並列ハイブリッド ニューラル ネットワーク アーキテクチャを使用し、15 分後の蒸気質量流量の予測を強化します。
私たちの結果は、並列ハイブリッド モデルがスタンドアロンの古典モデルや量子モデルよりも優れたパフォーマンスを示し、純粋な古典ネットワークと純粋な量子ネットワークと比較して、トレーニング後のテスト セットでの平均二乗誤差 (MSE) 損失がそれぞれ 5.7 倍と 4.9 倍以上低いことを示しています。
さらに、ハイブリッド モデルは、グランド トゥルースとテスト セット上のモデル予測の間の相対誤差が小さく、純粋な古典モデルよりも最大 2 倍優れていることを示しています。
これらの発見は、量子学習技術と古典的機械学習技術の統合がエネルギー分野が直面する現実世界の課題にどのように適用され、最終的には発電所の運用の最適化につながるのかについて、より広範な科学的理解に貢献します。

要約(オリジナル)

Efficient and sustainable power generation is a crucial concern in the energy sector. In particular, thermal power plants grapple with accurately predicting steam mass flow, which is crucial for operational efficiency and cost reduction. In this study, we use a parallel hybrid neural network architecture that combines a parametrized quantum circuit and a conventional feed-forward neural network specifically designed for time-series prediction in industrial settings to enhance predictions of steam mass flow 15 minutes into the future. Our results show that the parallel hybrid model outperforms standalone classical and quantum models, achieving more than 5.7 and 4.9 times lower mean squared error (MSE) loss on the test set after training compared to pure classical and pure quantum networks, respectively. Furthermore, the hybrid model demonstrates smaller relative errors between the ground truth and the model predictions on the test set, up to 2 times better than the pure classical model. These findings contribute to the broader scientific understanding of how integrating quantum and classical machine learning techniques can be applied to real-world challenges faced by the energy sector, ultimately leading to optimized power plant operations.

arxiv情報

著者 Andrii Kurkin,Jonas Hegemann,Mo Kordzanganeh,Alexey Melnikov
発行日 2023-07-18 17:59:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SE, physics.data-an, quant-ph パーマリンク