On the (In)security of Peer-to-Peer Decentralized Machine Learning

要約

タイトル:ピア・ツー・ピア分散型機械学習の(非)安全性に関する研究

要約:
– Decentralized Learningは、フェデレーテッド・ラーニングの主な制限に対処することを目的とした協調的な機械学習フレームワークであり、初の深層的なプライバシー分析を行う。
– 新しい攻撃スイートを導入し、受動的・能動的な分散型敵対者に対する攻撃に関して実証する。
– 分散型学習提案者が主張するように、分散型学習はフェデレーテッド・ラーニングよりもセキュリティ上の利点を提供していないことがわかった。
– 代わりに、攻撃面積を拡大し、勾配反転などのプライバシー攻撃を実行し、正直なユーザーのローカルモデルの完全な制御を取得することができる。
– 保護技術の状態が考慮され、プライバシー保護された分散型学習の構成は完全に接続されたネットワークを必要とするため、フェデレーテッド・セットアップとの実用的な利点を失い、分散型アプローチの目的を完全に破綻させる。

要約(オリジナル)

In this work, we carry out the first, in-depth, privacy analysis of Decentralized Learning — a collaborative machine learning framework aimed at addressing the main limitations of federated learning. We introduce a suite of novel attacks for both passive and active decentralized adversaries. We demonstrate that, contrary to what is claimed by decentralized learning proposers, decentralized learning does not offer any security advantage over federated learning. Rather, it increases the attack surface enabling any user in the system to perform privacy attacks such as gradient inversion, and even gain full control over honest users’ local model. We also show that, given the state of the art in protections, privacy-preserving configurations of decentralized learning require fully connected networks, losing any practical advantage over the federated setup and therefore completely defeating the objective of the decentralized approach.

arxiv情報

著者 Dario Pasquini,Mathilde Raynal,Carmela Troncoso
発行日 2023-04-27 16:50:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CR, cs.LG パーマリンク