Attribute Inference Attacks for Federated Regression Tasks

要約

Federated Learning (FL) を使用すると、携帯電話や IoT デバイスなどの複数のクライアントが、データをローカライズしたまま、グローバルな機械学習モデルを共同でトレーニングできます。
しかし、最近の研究では、FL のトレーニング段階が属性推論攻撃 (AIA) などの再構成攻撃に対して脆弱であることが明らかになりました。この攻撃では、攻撃者は交換されたメッセージや補助的な公開情報を悪用して、標的のクライアントの機密属性を明らかにします。
これらの攻撃は分類タスクに関連して広く研究されていますが、回帰タスクへの影響はほとんど調査されていません。
このペーパーでは、FL 環境での回帰タスク用に特別に設計された新しいモデルベースの AIA を提案することで、このギャップに対処します。
私たちのアプローチでは、攻撃者が交換されたメッセージを盗聴したり、トレーニング プロセスに直接干渉したりする可能性があるシナリオを考慮しています。
私たちは、現実世界のデータセットを使用して、最先端の手法に対して提案された攻撃をベンチマークします。
この結果は、特にフロリダ州の一般的なシナリオである異種クライアント データセットにおいて、再構成精度が大幅に向上していることを示しています。
当社のモデルベースの AIA は有効であるため、連合回帰タスクのプライバシー漏洩を経験的に定量化するためのより優れた候補となります。

要約(オリジナル)

Federated Learning (FL) enables multiple clients, such as mobile phones and IoT devices, to collaboratively train a global machine learning model while keeping their data localized. However, recent studies have revealed that the training phase of FL is vulnerable to reconstruction attacks, such as attribute inference attacks (AIA), where adversaries exploit exchanged messages and auxiliary public information to uncover sensitive attributes of targeted clients. While these attacks have been extensively studied in the context of classification tasks, their impact on regression tasks remains largely unexplored. In this paper, we address this gap by proposing novel model-based AIAs specifically designed for regression tasks in FL environments. Our approach considers scenarios where adversaries can either eavesdrop on exchanged messages or directly interfere with the training process. We benchmark our proposed attacks against state-of-the-art methods using real-world datasets. The results demonstrate a significant increase in reconstruction accuracy, particularly in heterogeneous client datasets, a common scenario in FL. The efficacy of our model-based AIAs makes them better candidates for empirically quantifying privacy leakage for federated regression tasks.

arxiv情報

著者 Francesco Diana,Othmane Marfoq,Chuan Xu,Giovanni Neglia,Frédéric Giroire,Eoin Thomas
発行日 2024-11-19 18:06:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク