要約
フェデレーテッド ラーニングでは、良性の参加者が協力してグローバル モデルを最適化することを目指します。
しかし、\textit{半正直}な敵対者の存在下では、\textit{プライバシー漏洩}のリスクを無視することはできません。
既存の研究は、保護メカニズムの設計または攻撃メカニズムの発明に焦点を当ててきました。
防御側と攻撃側の戦いは終わりがないように見えますが、私たちは 1 つの重要な疑問を懸念しています。それは、潜在的な攻撃を事前に防ぐことは可能でしょうか?
これに対処するために、計算コスト、FL モデルのユーティリティ、プライバシー漏洩のリスクなど、それぞれの見返りの観点から FL の防御者と攻撃者の両方を考慮する最初のゲーム理論的フレームワークを提案します。
私たちはこのゲームをフェデレーション ラーニング プライバシー ゲーム (FLPG) と名付けます。このゲームでは、防御側も攻撃側もすべての参加者の利益を認識していません。
この状況に固有の \textit{不完全な情報} を処理するために、FLPG を 2 つの主な責任を持つ \textit{oracle} に関連付けることを提案します。
まず、オラクルはプレイヤーに対するペイオフの下限と上限を提供します。
第 2 に、オラクルは相関デバイスとして機能し、推奨アクションを各プレイヤーに非公開で提供します。
この新しいフレームワークを使用して、防御側と攻撃側の最適な戦略を分析します。
さらに、攻撃者が合理的な意思決定者として、常に神託の提案「textit{攻撃しない}」に従うべき条件を導き出し、実証します。
要約(オリジナル)
In federated learning, benign participants aim to optimize a global model collaboratively. However, the risk of \textit{privacy leakage} cannot be ignored in the presence of \textit{semi-honest} adversaries. Existing research has focused either on designing protection mechanisms or on inventing attacking mechanisms. While the battle between defenders and attackers seems never-ending, we are concerned with one critical question: is it possible to prevent potential attacks in advance? To address this, we propose the first game-theoretic framework that considers both FL defenders and attackers in terms of their respective payoffs, which include computational costs, FL model utilities, and privacy leakage risks. We name this game the federated learning privacy game (FLPG), in which neither defenders nor attackers are aware of all participants’ payoffs. To handle the \textit{incomplete information} inherent in this situation, we propose associating the FLPG with an \textit{oracle} that has two primary responsibilities. First, the oracle provides lower and upper bounds of the payoffs for the players. Second, the oracle acts as a correlation device, privately providing suggested actions to each player. With this novel framework, we analyze the optimal strategies of defenders and attackers. Furthermore, we derive and demonstrate conditions under which the attacker, as a rational decision-maker, should always follow the oracle’s suggestion \textit{not to attack}.
arxiv情報
著者 | Xiaojin Zhang,Lixin Fan,Siwei Wang,Wenjie Li,Kai Chen,Qiang Yang |
発行日 | 2023-12-15 13:23:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google