Exploring User-level Gradient Inversion with a Diffusion Prior

要約

分散学習における新しい攻撃対象領域として、ユーザーレベルの勾配反転を調査します。
まず、トレーニング データの再構築を超えて個人情報について推論する能力に対する既存の攻撃を調査します。
既存の手法の再構成品質の低さを動機として、大規模なバッチ設定での回復を強化するために、ノイズ除去拡散モデルを強力な事前画像として適用する新しい勾配反転攻撃を提案します。
個々のサンプルを再構築し、大きなバッチおよび画像サイズで被害を受けることを目的とした従来の攻撃とは異なり、私たちのアプローチは代わりに、基礎となるユーザーに対応する機密の共有セマンティック情報をキャプチャする代表的な画像を回復することを目的としています。
顔画像を使った実験では、プライベート ユーザー属性とともにリアルな顔画像を復元する私たちの方法の能力を実証しました。

要約(オリジナル)

We explore user-level gradient inversion as a new attack surface in distributed learning. We first investigate existing attacks on their ability to make inferences about private information beyond training data reconstruction. Motivated by the low reconstruction quality of existing methods, we propose a novel gradient inversion attack that applies a denoising diffusion model as a strong image prior in order to enhance recovery in the large batch setting. Unlike traditional attacks, which aim to reconstruct individual samples and suffer at large batch and image sizes, our approach instead aims to recover a representative image that captures the sensitive shared semantic information corresponding to the underlying user. Our experiments with face images demonstrate the ability of our methods to recover realistic facial images along with private user attributes.

arxiv情報

著者 Zhuohang Li,Andrew Lowy,Jing Liu,Toshiaki Koike-Akino,Bradley Malin,Kieran Parsons,Ye Wang
発行日 2024-09-11 14:20:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG, stat.ML パーマリンク