要約
連合学習は、一元化された機械学習のプライバシー指向の代替品として浮上し、直接データ共有なしで共同モデルトレーニングを可能にします。
ニューラルネットワークのために広範囲に研究されていますが、ツリーベースのモデルのセキュリティとプライバシーへの影響は未定です。
この作業では、水平方向にフェデレーションされた樹木ベースのモデルをターゲットにした最適化ベースのデータセット再構成攻撃であるTimberStrikeを紹介します。
単一のクライアントが実施する攻撃は、分割値と決定パスを使用して他のクライアントから機密性の高いトレーニングデータを推測することにより、決定ツリーの個別の性質を活用します。
Flower、NVFlare、Fedtreeを含む複数のフレームワークにわたる最先端のフェデレーショングラデーションブーストの実装でTemberStrikeを評価し、プライバシー違反に対する脆弱性を実証します。
公開されているストローク予測データセットでは、ティンバーストライクは、すべての実装でターゲットデータセットの73.05%から95.63%の間で一貫して再構築されます。
さらに、差別的なプライバシーを分析し、攻撃を部分的に軽減しますが、モデルのパフォーマンスも大幅に低下することを示しています。
私たちの調査結果は、樹木ベースの連合学習システム向けに特別に設計されたプライバシーを提供するメカニズムの必要性を強調しており、それらの設計に関する予備的な洞察を提供します。
要約(オリジナル)
Federated Learning has emerged as a privacy-oriented alternative to centralized Machine Learning, enabling collaborative model training without direct data sharing. While extensively studied for neural networks, the security and privacy implications of tree-based models remain underexplored. This work introduces TimberStrike, an optimization-based dataset reconstruction attack targeting horizontally federated tree-based models. Our attack, carried out by a single client, exploits the discrete nature of decision trees by using split values and decision paths to infer sensitive training data from other clients. We evaluate TimberStrike on State-of-the-Art federated gradient boosting implementations across multiple frameworks, including Flower, NVFlare, and FedTree, demonstrating their vulnerability to privacy breaches. On a publicly available stroke prediction dataset, TimberStrike consistently reconstructs between 73.05% and 95.63% of the target dataset across all implementations. We further analyze Differential Privacy, showing that while it partially mitigates the attack, it also significantly degrades model performance. Our findings highlight the need for privacy-preserving mechanisms specifically designed for tree-based Federated Learning systems, and we provide preliminary insights into their design.
arxiv情報
著者 | Marco Di Gennaro,Giovanni De Lucia,Stefano Longari,Stefano Zanero,Michele Carminati |
発行日 | 2025-06-12 17:48:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google