Towards Sustainable Deep Learning for Multi-Label Classification on NILM

要約

非侵入型負荷監視 (NILM) は、単一の計測ポイントからアプライアンス レベルのデータを取得し、家庭または企業の総電力消費量を測定するプロセスです。
アプライアンス レベルのデータは、デマンド レスポンス アプリケーションやエネルギー管理システムに直接使用できるほか、エネルギー効率の向上や二酸化炭素排出量の削減に対する意識向上や動機付けにも使用できます。
最近、古典的な機械学習と深層学習 (DL) 手法が非常に人気があり、NILM 分類に非常に効果的であることが証明されましたが、複雑さが増すにつれて、これらの手法はトレーニングと運用の両方で多大な計算量とエネルギーの需要に直面しています。
この論文では、計算効率とエネルギー効率を改善し、NILM のマルチラベル分類を強化することを目的とした新しい DL モデルを紹介します。
また、実世界のシナリオをよりよく表現するために、測定データセットから合成されたデータを使用して、さまざまなモデルを比較するためのテスト方法論も提案します。
最先端のモデルと比較して、提案されたモデルは二酸化炭素排出量を 23% 以上削減しながら、REFIT および UK-DALE データセットから得られたデータでテストした場合、平均で約 8 パーセント ポイントのパフォーマンス向上を実現しました。

要約(オリジナル)

Non-intrusive load monitoring (NILM) is the process of obtaining appliance-level data from a single metering point, measuring total electricity consumption of a household or a business. Appliance-level data can be directly used for demand response applications and energy management systems as well as for awareness raising and motivation for improvements in energy efficiency and reduction in the carbon footprint. Recently, classical machine learning and deep learning (DL) techniques became very popular and proved as highly effective for NILM classification, but with the growing complexity these methods are faced with significant computational and energy demands during both their training and operation. In this paper, we introduce a novel DL model aimed at enhanced multi-label classification of NILM with improved computation and energy efficiency. We also propose a testing methodology for comparison of different models using data synthesized from the measurement datasets so as to better represent real-world scenarios. Compared to the state-of-the-art, the proposed model has its carbon footprint reduced by more than 23% while providing on average approximately 8 percentage points in performance improvement when testing on data derived from REFIT and UK-DALE datasets.

arxiv情報

著者 Anže Pirnat,Blaž Bertalanič,Gregor Cerar,Mihael Mohorčič,Carolina Fortuna
発行日 2023-07-18 13:23:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク