Online federated learning framework for classification

要約

このホワイトペーパーでは、データプライバシーと計算効率を確保しながら、複数のクライアントからのストリーミングデータを処理するように設計された分類のための新しいオンライン連合学習フレームワークを開発します。
私たちの方法は、一般化された距離加重判別技術を活用しており、クライアント間の均質および不​​均一なデータ分布の両方に堅牢になります。
特に、再生可能な推定手順と統合されたMaseization-Minimization原則に基づいた新しい最適化アルゴリズムを開発し、完全な再訓練なしで効率的なモデルの更新を可能にします。
推定器の収束の理論的保証を提供し、標準的な規則性条件下での一貫性と漸近正常性を証明します。
さらに、この方法がベイジアンリスクの一貫性を達成し、連合環境での分類タスクの信頼性を確保することを確立します。
さらに、データセキュリティを強化するための差別的なプライバシーメカニズムが組み込まれ、モデルのパフォーマンスを維持しながらクライアント情報を保護します。
シミュレートされたデータセットと実際のデータセットの両方での広範な数値実験は、このアプローチが既存の方法と比較して高い分類精度、大幅な計算効率の向上、およびデータストレージ要件の大幅な節約を提供することを示しています。

要約(オリジナル)

In this paper, we develop a novel online federated learning framework for classification, designed to handle streaming data from multiple clients while ensuring data privacy and computational efficiency. Our method leverages the generalized distance-weighted discriminant technique, making it robust to both homogeneous and heterogeneous data distributions across clients. In particular, we develop a new optimization algorithm based on the Majorization-Minimization principle, integrated with a renewable estimation procedure, enabling efficient model updates without full retraining. We provide a theoretical guarantee for the convergence of our estimator, proving its consistency and asymptotic normality under standard regularity conditions. In addition, we establish that our method achieves Bayesian risk consistency, ensuring its reliability for classification tasks in federated environments. We further incorporate differential privacy mechanisms to enhance data security, protecting client information while maintaining model performance. Extensive numerical experiments on both simulated and real-world datasets demonstrate that our approach delivers high classification accuracy, significant computational efficiency gains, and substantial savings in data storage requirements compared to existing methods.

arxiv情報

著者 Wenxing Guo,Jinhan Xie,Jianya Lu,Bei jiang,Hongsheng Dai,Linglong Kong
発行日 2025-03-19 13:50:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク