要約
大規模生成モデリングの最近のブレークスルーは、自然言語、コンピュータービジョン、タンパク質構造の予測などのドメインの基礎モデルの可能性を実証しています。
ただし、高品質のデータの希少性と不均一性により、エネルギーおよびスマートグリッドセクターへの適用は限られたままです。
この作業では、まれで目に見えないコンテキスト変数(場所、建物タイプ、太陽光発電など)の高忠実度の電力消費時系列データを作成する方法を提案します。
時系列の生成をエンコードして正規化するコンテキスト、またはセントのコンテキストには、3つの重要な革新が含まれます。(i)トレーニング中に見えない時系列コンテキスト変数の逆変換を可能にするコンテキスト正規化アプローチ、(ii)任意の状態を条件付ける新しいコンテキストエンコーダー
– コンテキスト変数の任意の数値と組み合わせに関する最大の時系列ジェネレーター、(iii)このコンテキストエンコーダーをトレーニングするためのフレームワークは、コンテキストの埋め込みと埋め込みの表現性を高めるために設計された補助コンテキスト分類損失を使用して、時系列エンコーダーと共同でトレーニングするためのフレームワーク
モデルのパフォーマンスを改善します。
さらに、生成時系列モデルのさまざまな評価メトリックの包括的な概要を提供します。
我々の結果は、現実的な家庭レベルの電力消費データを生成する際の提案された方法の有効性を強調し、合成データと実際のデータでエネルギードメインでより大きな基礎モデルをトレーニングする方法を開いています。
要約(オリジナル)
Recent breakthroughs in large-scale generative modeling have demonstrated the potential of foundation models in domains such as natural language, computer vision, and protein structure prediction. However, their application in the energy and smart grid sector remains limited due to the scarcity and heterogeneity of high-quality data. In this work, we propose a method for creating high-fidelity electricity consumption time series data for rare and unseen context variables (e.g. location, building type, photovoltaics). Our approach, Context Encoding and Normalizing Time Series Generation, or CENTS, includes three key innovations: (i) A context normalization approach that enables inverse transformation for time series context variables unseen during training, (ii) a novel context encoder to condition any state-of-the-art time-series generator on arbitrary numbers and combinations of context variables, (iii) a framework for training this context encoder jointly with a time-series generator using an auxiliary context classification loss designed to increase expressivity of context embeddings and improve model performance. We further provide a comprehensive overview of different evaluation metrics for generative time series models. Our results highlight the efficacy of the proposed method in generating realistic household-level electricity consumption data, paving the way for training larger foundation models in the energy domain on synthetic as well as real-world data.
arxiv情報
著者 | Michael Fuest,Alfredo Cuesta,Kalyan Veeramachaneni |
発行日 | 2025-01-28 11:22:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google