RAIFLE: Reconstruction Attacks on Interaction-based Federated Learning with Adversarial Data Manipulation

要約

フェデレーション ラーニングは、ユーザー インタラクションに依存する機械学習ドメイン、特にレコメンダー システムやオンライン学習のランク付けに依存する、有望なプライバシー保護ソリューションとして浮上しています。
従来のフェデレーテッド ラーニングのプライバシーについては多くの研究が行われてきましたが、これらのインタラクション ベースの設定のプライバシー特性についてはほとんど注目されていませんでした。
この研究では、ユーザーが対話するアイテムのトレーニング機能をサーバーが制御できる場合、ユーザーは中央サーバーによってプライベートな対話が再構築されるリスクが高まることを示しました。
RAIFLE は、サーバーがユーザーに提示されたアイテムの特徴を積極的に操作して再構築の成功率を高める新しい最適化ベースの攻撃フレームワークです。
フェデレーテッド レコメンデーションとオンライン学習からランク付けまでのシナリオを用いた実験では、RAIFLE が勾配反転などの既存の再構成攻撃よりも大幅に強力であり、ほとんどの設定で一貫して高いパフォーマンスを達成できることが実証されました。
インタラクションベースの連合学習のコンテキストで、RAIFLE を防御するために考えられるいくつかの対策の長所と短所について説明します。
私たちのコードは https://github.com/dzungvpham/raifle でオープンソース化されています。

要約(オリジナル)

Federated learning has emerged as a promising privacy-preserving solution for machine learning domains that rely on user interactions, particularly recommender systems and online learning to rank. While there has been substantial research on the privacy of traditional federated learning, little attention has been paid to the privacy properties of these interaction-based settings. In this work, we show that users face an elevated risk of having their private interactions reconstructed by the central server when the server can control the training features of the items that users interact with. We introduce RAIFLE, a novel optimization-based attack framework where the server actively manipulates the features of the items presented to users to increase the success rate of reconstruction. Our experiments with federated recommendation and online learning-to-rank scenarios demonstrate that RAIFLE is significantly more powerful than existing reconstruction attacks like gradient inversion, achieving high performance consistently in most settings. We discuss the pros and cons of several possible countermeasures to defend against RAIFLE in the context of interaction-based federated learning. Our code is open-sourced at https://github.com/dzungvpham/raifle.

arxiv情報

著者 Dzung Pham,Shreyas Kulkarni,Amir Houmansadr
発行日 2024-07-11 16:04:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク