From Models to Network Topologies: A Topology Inference Attack in Decentralized Federated Learning

要約

Federated Learning (FL) は、直接的なデータ交換を回避するモデル共有メカニズムにより、プライバシーを保護する機械学習パラダイムとして広く認識されています。
ただし、モデルのトレーニングでは、機密情報の推測に使用できる悪用可能な痕跡が必然的に残ります。
分散型 FL (DFL) では、オーバーレイ トポロジがモデルの収束性、堅牢性、セキュリティに大きく影響します。
この研究では、新しいトポロジ推論攻撃を導入し、モデルの動作のみに基づいて DFL システムのオーバーレイ トポロジを推論する実現可能性を調査します。
トポロジ推論攻撃の分類が提案され、攻撃者の能力と知識によって分類されます。
さまざまなシナリオに合わせて実践的な攻撃戦略が開発され、攻撃の有効性に影響を与える重要な要素を特定するために定量的な実験が行われます。
実験結果は、個々のノードのパブリック モデルのみを分析することで DFL トポロジを正確に推測できることを示しており、DFL システムにおける機密情報漏洩のリスクが強調されています。
この発見は、分散型学習環境におけるプライバシー保護を改善するための貴重な洞察を提供します。

要約(オリジナル)

Federated Learning (FL) is widely recognized as a privacy-preserving machine learning paradigm due to its model-sharing mechanism that avoids direct data exchange. However, model training inevitably leaves exploitable traces that can be used to infer sensitive information. In Decentralized FL (DFL), the overlay topology significantly influences its models’ convergence, robustness, and security. This study explores the feasibility of inferring the overlay topology of DFL systems based solely on model behavior, introducing a novel Topology Inference Attack. A taxonomy of topology inference attacks is proposed, categorizing them by the attacker’s capabilities and knowledge. Practical attack strategies are developed for different scenarios, and quantitative experiments are conducted to identify key factors influencing the attack effectiveness. Experimental results demonstrate that analyzing only the public models of individual nodes can accurately infer the DFL topology, underscoring the risk of sensitive information leakage in DFL systems. This finding offers valuable insights for improving privacy preservation in decentralized learning environments.

arxiv情報

著者 Chao Feng,Yuanzhe Gao,Alberto Huertas Celdran,Gerome Bovet,Burkhard Stiller
発行日 2025-01-06 16:27:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク