From Models to Network Topologies: A Topology Inference Attack in Decentralized Federated Learning

要約

Federated Learning(FL)は、直接データ交換を回避するモデル共有メカニズムのため、プライバシーを提供する機械学習パラダイムとして広く認識されています。
それにもかかわらず、モデルトレーニングは、機密情報を推測するために使用できる悪用可能な痕跡を残します。
分散型FL(DFL)では、参加者がどのように接続されているかを定義するトポロジで、モデルのプライバシー、堅牢性、収束を形作る上で重要な役割を果たします。
ただし、トポロジは未開拓の脆弱性を導入します。攻撃者はそれを悪用して参加者の関係を推測し、ターゲット攻撃を開始できます。
この作業は、モデルの動作のみからトポロジを推進する新しいトポロジ推論攻撃を提案することにより、DFLトポロジの隠されたリスクを明らかにします。
トポロジー推論攻撃の分類が導入され、攻撃者の能力と知識によってそれらを分類します。
実用的な攻撃戦略は、さまざまなシナリオ向けに設計されており、攻撃の成功に影響を与える重要な要因を特定するために実験が行われます。
結果は、各ノードのモデルのみを分析することでDFLトポロジを正確に推測し、DFLシステムの重要なプライバシーリスクを強調できることを示しています。
これらの調査結果は、DFL環境でのプライバシー保存を改善するための貴重な洞察を提供します。

要約(オリジナル)

Federated Learning (FL) is widely recognized as a privacy-preserving machine learning paradigm due to its model-sharing mechanism that avoids direct data exchange. Nevertheless, model training leaves exploitable traces that can be used to infer sensitive information. In Decentralized FL (DFL), the topology, defining how participants are connected, plays a crucial role in shaping the model’s privacy, robustness, and convergence. However, the topology introduces an unexplored vulnerability: attackers can exploit it to infer participant relationships and launch targeted attacks. This work uncovers the hidden risks of DFL topologies by proposing a novel Topology Inference Attack that infers the topology solely from model behavior. A taxonomy of topology inference attacks is introduced, categorizing them by the attacker’s capabilities and knowledge. Practical attack strategies are designed for various scenarios, and experiments are conducted to identify key factors influencing attack success. The results demonstrate that analyzing only the model of each node can accurately infer the DFL topology, highlighting a critical privacy risk in DFL systems. These findings offer valuable insights for improving privacy preservation in DFL environments.

arxiv情報

著者 Chao Feng,Yuanzhe Gao,Alberto Huertas Celdran,Gerome Bovet,Burkhard Stiller
発行日 2025-05-09 08:49:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク