要約
このペーパーでは、連邦学習(FL)における3つの重要な信頼できる課題に対処するための包括的なフレームワークを開発します:ビザンチンの攻撃、公平性、プライバシーの保存に対する堅牢性。
システムのパフォーマンスにバイアスをかけるために悪意のある情報を送信するビザンチン攻撃に対するシステムの防御を改善するために、両側のノルムベースのスクリーニング(TNBS)メカニズムを開発します。これにより、中央サーバーがLが最も低く、最も高い規範を持つ勾配をトリミングできます。
TNBSは、勾配が正直なものとはほど遠い潜在的な悪意のある参加者を除外するスクリーニングツールとして機能します。
平等主義の公平性を促進するために、Q-Fair Federated Learning(Q-FFL)を採用します。
さらに、地元のクライアントでの生データが好奇心are盛なパーティーによって推測されるのを防ぐために、差別的なプライバシーベースのスキームを採用しています。
さまざまなシナリオの下で提案されたフレームワークに対して収束保証が提供されます。
実際のデータセットでの実験結果は、提案されたフレームワークがプライバシーと精度のトレードオフを管理しながら、堅牢性と公平性を効果的に改善することを示しています。
この作業は、信頼できるFLの公平性、プライバシー、堅牢性に実験的および理論的に対処する最初の研究であるように見えます。
要約(オリジナル)
This paper develops a comprehensive framework to address three critical trustworthy challenges in federated learning (FL): robustness against Byzantine attacks, fairness, and privacy preservation. To improve the system’s defense against Byzantine attacks that send malicious information to bias the system’s performance, we develop a Two-sided Norm Based Screening (TNBS) mechanism, which allows the central server to crop the gradients that have the l lowest norms and h highest norms. TNBS functions as a screening tool to filter out potential malicious participants whose gradients are far from the honest ones. To promote egalitarian fairness, we adopt the q-fair federated learning (q-FFL). Furthermore, we adopt a differential privacy-based scheme to prevent raw data at local clients from being inferred by curious parties. Convergence guarantees are provided for the proposed framework under different scenarios. Experimental results on real datasets demonstrate that the proposed framework effectively improves robustness and fairness while managing the trade-off between privacy and accuracy. This work appears to be the first study that experimentally and theoretically addresses fairness, privacy, and robustness in trustworthy FL.
arxiv情報
著者 | Alina Basharat,Yijun Bian,Ping Xu,Zhi Tian |
発行日 | 2025-03-05 17:25:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google