Defining ‘Good’: Evaluation Framework for Synthetic Smart Meter Data

要約

ネットゼロ移行には、詳細な需要データへのアクセスが不可欠です。
変動する再生可能発電への依存が高まる中、正確なプロファイリングと積極的な需要管理が可能になります。
ただし、プライバシー上の懸念により、このデータの一般公開は不可能なことがよくあります。
高品質の合成データを使用すれば、この問題を回避できます。
合成スマート メーター データの生成に関する重要な研究にもかかわらず、一貫した評価フレームワークを作成するための作業はまだ不十分です。
このペーパーでは、合成データを活用する他の業界で使用されている一般的なフレームワークを、忠実度、ユーティリティ、プライバシーなどの合成スマート メーター データにどのように適用できるかを調査します。
また、スマート メーター データの定義要素が保持されていることを確認し、差分プライバシーを使用してプライバシーがどの程度保護されるかをテストするための特定の指標も推奨します。
我々は、再構成攻撃やメンバーシップ推論攻撃などの標準的なプライバシー攻撃手法は、スマート メーター データセットのプライバシー リスクを評価するには不十分であることを示します。
私たちは、ありえない外れ値を含むトレーニング データを挿入し、これらの外れ値に対して直接プライバシー攻撃を開始する、改良された方法を提案します。
$\epsilon$ (プライバシー損失の指標) の選択は、プライバシー リスクに大きな影響を及ぼし、忠実性とプライバシーの間でトレードオフを行う際に、これらの明示的なプライバシー テストを実行する必要性を強調しています。

要約(オリジナル)

Access to granular demand data is essential for the net zero transition; it allows for accurate profiling and active demand management as our reliance on variable renewable generation increases. However, public release of this data is often impossible due to privacy concerns. Good quality synthetic data can circumnavigate this issue. Despite significant research on generating synthetic smart meter data, there is still insufficient work on creating a consistent evaluation framework. In this paper, we investigate how common frameworks used by other industries leveraging synthetic data, can be applied to synthetic smart meter data, such as fidelity, utility and privacy. We also recommend specific metrics to ensure that defining aspects of smart meter data are preserved and test the extent to which privacy can be protected using differential privacy. We show that standard privacy attack methods like reconstruction or membership inference attacks are inadequate for assessing privacy risks of smart meter datasets. We propose an improved method by injecting training data with implausible outliers, then launching privacy attacks directly on these outliers. The choice of $\epsilon$ (a metric of privacy loss) significantly impacts privacy risk, highlighting the necessity of performing these explicit privacy tests when making trade-offs between fidelity and privacy.

arxiv情報

著者 Sheng Chai,Gus Chadney,Charlot Avery,Phil Grunewald,Pascal Van Hentenryck,Priya L. Donti
発行日 2024-07-16 14:41:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク