Formal Logic-guided Robust Federated Learning against Poisoning Attacks

要約

Federated Learning (FL) は、分散型の共同学習を可能にすることで、集中型の機械学習 (ML) に関連するプライバシーの問題に対する有望なソリューションを提供します。
ただし、FL は、敵対的なクライアントがトレーニング データやモデルの更新を操作してモデル全体のパフォーマンスを低下させるポイズニング攻撃など、さまざまなセキュリティ脅威に対して脆弱です。
この脅威を認識して、研究者たちは FL システムにおけるポイズニング攻撃に対抗する防御メカニズムの開発に焦点を当ててきました。
ただし、既存の堅牢な FL 手法は主にコンピューター ビジョン タスクに焦点を当てており、時系列データを使用した FL 特有の課題への対処にはギャップが残されています。
このペーパーでは、異種クライアント データや多数の敵対的参加者が存在するシナリオでも、時系列タスクのフェデレーテッド ラーニングにおけるポイズニング攻撃を軽減するように設計された防御メカニズムである FLORAL を紹介します。
従来のモデル中心の防御とは異なり、FLORAL は、クライアントの更新の類似性にのみ依存するのではなく、論理的推論を活用して、クライアントの予測をグローバルな時系列パターンと一致させることでクライアントの信頼性を評価します。
私たちのアプローチでは、クライアントから論理的推論プロパティを抽出し、次にグローバル プロパティを階層的に推論し、これらを使用してクライアントの更新を検証します。
形式的なロジック検証を通じて、各クライアントの貢献度の堅牢性を評価し、敵対的な動作を示す逸脱を特定します。
2 つのデータセットに関する実験結果は、既存のベースライン手法と比較して、このアプローチの優れたパフォーマンスを実証し、時系列アプリケーションに対する FL の堅牢性を強化する可能性を強調しています。
特に、FLORAL は、2 番目に良いベースラインと比較して、最良のシナリオでは予測誤差を 93.27\% 削減しました。
私たちのコードは \url{https://anonymous.4open.science/r/FLORAL-Robust-FTS} で入手できます。

要約(オリジナル)

Federated Learning (FL) offers a promising solution to the privacy concerns associated with centralized Machine Learning (ML) by enabling decentralized, collaborative learning. However, FL is vulnerable to various security threats, including poisoning attacks, where adversarial clients manipulate the training data or model updates to degrade overall model performance. Recognizing this threat, researchers have focused on developing defense mechanisms to counteract poisoning attacks in FL systems. However, existing robust FL methods predominantly focus on computer vision tasks, leaving a gap in addressing the unique challenges of FL with time series data. In this paper, we present FLORAL, a defense mechanism designed to mitigate poisoning attacks in federated learning for time-series tasks, even in scenarios with heterogeneous client data and a large number of adversarial participants. Unlike traditional model-centric defenses, FLORAL leverages logical reasoning to evaluate client trustworthiness by aligning their predictions with global time-series patterns, rather than relying solely on the similarity of client updates. Our approach extracts logical reasoning properties from clients, then hierarchically infers global properties, and uses these to verify client updates. Through formal logic verification, we assess the robustness of each client contribution, identifying deviations indicative of adversarial behavior. Experimental results on two datasets demonstrate the superior performance of our approach compared to existing baseline methods, highlighting its potential to enhance the robustness of FL to time series applications. Notably, FLORAL reduced the prediction error by 93.27\% in the best-case scenario compared to the second-best baseline. Our code is available at \url{https://anonymous.4open.science/r/FLORAL-Robust-FTS}.

arxiv情報

著者 Dung Thuy Nguyen,Ziyan An,Taylor T. Johnson,Meiyi Ma,Kevin Leach
発行日 2024-11-05 16:23:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.DC, cs.LO パーマリンク