Leveraging Hypernetworks and Learnable Kernels for Consumer Energy Forecasting Across Diverse Consumer Types

要約

消費者エネルギー予測は、エネルギー消費と計画を管理し、運用効率、コスト削減、パーソナライズされたエネルギー管理、持続可能性の取り組みに直接影響を与えるために不可欠です。
近年、深い学習技術、特にLSTMと変圧器は、エネルギー消費予測の分野で大成功を収めています。
それにもかかわらず、これらの手法は複雑で突然のバリエーションをキャプチャするのが困難であり、さらに、特定のタイプの消費者(たとえば、オフィスのみ、学校のみ)でのみ調べられます。
その結果、このペーパーでは、多様な消費者に適用される複雑なパターンの改善されたモデリングのためにハイパーネットワークを活用する消費者エネルギー予測戦略であるハイパーエネルギーを提案します。
HyperNetworkは、プライマリ予測ネットワークのパラメーター(当社の場合LSTM)のパラメーターを予測する責任があります。
多項式および放射状の基底関数カーネルで構成される学習可能な適応可能なカーネルが、パフォーマンスを向上させるために組み込まれています。
提案されたハイパーエネルギーは、学生住宅、戸建住宅、電気自動車の充電付きの家、タウンハウスなど、多様な消費者について評価されました。
すべての消費者タイプにわたって、HyperEnergyは、LSTM、AttentionLSTM、Transformerなどの最先端のモデルを含む、他の10のテクニックを常に上回っていました。

要約(オリジナル)

Consumer energy forecasting is essential for managing energy consumption and planning, directly influencing operational efficiency, cost reduction, personalized energy management, and sustainability efforts. In recent years, deep learning techniques, especially LSTMs and transformers, have been greatly successful in the field of energy consumption forecasting. Nevertheless, these techniques have difficulties in capturing complex and sudden variations, and, moreover, they are commonly examined only on a specific type of consumer (e.g., only offices, only schools). Consequently, this paper proposes HyperEnergy, a consumer energy forecasting strategy that leverages hypernetworks for improved modeling of complex patterns applicable across a diversity of consumers. Hypernetwork is responsible for predicting the parameters of the primary prediction network, in our case LSTM. A learnable adaptable kernel, comprised of polynomial and radial basis function kernels, is incorporated to enhance performance. The proposed HyperEnergy was evaluated on diverse consumers including, student residences, detached homes, a home with electric vehicle charging, and a townhouse. Across all consumer types, HyperEnergy consistently outperformed 10 other techniques, including state-of-the-art models such as LSTM, AttentionLSTM, and transformer.

arxiv情報

著者 Muhammad Umair Danish,Katarina Grolinger
発行日 2025-02-07 17:25:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク