FLMarket: Enabling Privacy-preserved Pre-training Data Pricing for Federated Learning

要約

Federated Learning (FL) は、主流のプライバシー保護機械学習パラダイムとして、医療や金融などのプライバシーが重要な領域に有望なソリューションを提供します。
バニラ FL を改善するために学界と産業界の両方から広範な努力が払われてきましたが、データ価格設定メカニズムに焦点を当てた取り組みはほとんどありません。
単純なトレーニング中/トレーニング後の価格設定手法とは対照的に、学習プロセスからの直接情報を使用しないトレーニング前の価格設定というより困難な問題を研究します。
私たちは、ユーティリティとプライバシーの競合に対処するために、セキュリティ プロトコルと 2 段階のオークションベースの価格設定メカニズムを統合する FLMarket を提案します。
包括的な実験を通じて、FLMarket に従ってクライアントを選択すると、その後の FL トレーニングで最先端の方法と比較して 10% 以上高い精度を達成できることがわかりました。
さらに、精度が 2% 以上向上し、実行時間が 3 倍高速化され、トレーニング中のベースラインを上回ります。

要約(オリジナル)

Federated Learning (FL), as a mainstream privacy-preserving machine learning paradigm, offers promising solutions for privacy-critical domains such as healthcare and finance. Although extensive efforts have been dedicated from both academia and industry to improve the vanilla FL, little work focuses on the data pricing mechanism. In contrast to the straightforward in/post-training pricing techniques, we study a more difficult problem of pre-training pricing without direct information from the learning process. We propose FLMarket that integrates a two-stage, auction-based pricing mechanism with a security protocol to address the utility-privacy conflict. Through comprehensive experiments, we show that the client selection according to FLMarket can achieve more than 10% higher accuracy in subsequent FL training compared to state-of-the-art methods. In addition, it outperforms the in-training baseline with more than 2% accuracy increase and 3x run-time speedup.

arxiv情報

著者 Zhenyu Wen,Wanglei Feng,Di Wu,Haozhen Hu,Chang Xu,Bin Qian,Zhen Hong,Cong Wang,Shouling Ji
発行日 2024-11-18 16:37:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.LG パーマリンク