Attribute Inference Attacks for Federated Regression Tasks

要約

Federated Learning(FL)により、携帯電話やIoTデバイスなどの複数のクライアントが、データをローカライズしながら、グローバルな機械学習モデルを共同でトレーニングすることができます。
しかし、最近の研究により、FLのトレーニングフェーズは、属性推論攻撃(AIA)などの再建攻撃に対して脆弱であることが明らかになりました。敵は、ターゲットクライアントの機密属性を明らかにするために、敵が交換したメッセージや補助的な公開情報を活用しています。
これらの攻撃は分類タスクのコンテキストで広範囲に研究されていますが、回帰タスクへの影響はほとんど未開拓のままです。
この論文では、FL環境での回帰タスク用に特別に設計された新しいモデルベースのAIAを提案することにより、このギャップに対処します。
私たちのアプローチでは、敵が交換されたメッセージを盗聴できるか、トレーニングプロセスを直接妨害できるシナリオを検討します。
実際のデータセットを使用して、提案された最先端の方法に対する提案された攻撃をベンチマークします。
結果は、特にFLの一般的なシナリオである不均一なクライアントデータセットで、再構築の精度が大幅に増加していることを示しています。
モデルベースのAIAの有効性により、フェデレーション回帰タスクのプライバシー漏れを経験的に定量化するための候補者が優れています。

要約(オリジナル)

Federated Learning (FL) enables multiple clients, such as mobile phones and IoT devices, to collaboratively train a global machine learning model while keeping their data localized. However, recent studies have revealed that the training phase of FL is vulnerable to reconstruction attacks, such as attribute inference attacks (AIA), where adversaries exploit exchanged messages and auxiliary public information to uncover sensitive attributes of targeted clients. While these attacks have been extensively studied in the context of classification tasks, their impact on regression tasks remains largely unexplored. In this paper, we address this gap by proposing novel model-based AIAs specifically designed for regression tasks in FL environments. Our approach considers scenarios where adversaries can either eavesdrop on exchanged messages or directly interfere with the training process. We benchmark our proposed attacks against state-of-the-art methods using real-world datasets. The results demonstrate a significant increase in reconstruction accuracy, particularly in heterogeneous client datasets, a common scenario in FL. The efficacy of our model-based AIAs makes them better candidates for empirically quantifying privacy leakage for federated regression tasks.

arxiv情報

著者 Francesco Diana,Othmane Marfoq,Chuan Xu,Giovanni Neglia,Frédéric Giroire,Eoin Thomas
発行日 2025-04-16 12:29:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク