Novel clustered federated learning based on local loss

要約

この論文では、フェデレーション ラーニングにおけるクライアントのデータ分布を評価するための新しいクラスタリング メトリックである LCFL を提案します。
LCFL はフェデレーテッド ラーニングの要件に準拠し、データ配信におけるクライアント間の変動を正確に評価します。
これは、既存のクラスター化されたフェデレーション学習方法に比べて利点があり、プライバシーの問題に対処し、非凸モデルへの適用性を向上させ、より正確な分類結果を提供します。
LCFL では、クライアントのデータ配布に関する事前の知識は必要ありません。
私たちは厳密な数学的分析を提供し、フレームワークの正確さと実現可能性を実証します。
ニューラル ネットワーク インスタンスを使用した数値実験では、いくつかのクラスター化されたフェデレーテッド ラーニング ベンチマークのベースラインを上回る LCFL のパフォーマンスが優れていることが明らかになりました。

要約(オリジナル)

This paper proposes LCFL, a novel clustering metric for evaluating clients’ data distributions in federated learning. LCFL aligns with federated learning requirements, accurately assessing client-to-client variations in data distribution. It offers advantages over existing clustered federated learning methods, addressing privacy concerns, improving applicability to non-convex models, and providing more accurate classification results. LCFL does not require prior knowledge of clients’ data distributions. We provide a rigorous mathematical analysis, demonstrating the correctness and feasibility of our framework. Numerical experiments with neural network instances highlight the superior performance of LCFL over baselines on several clustered federated learning benchmarks.

arxiv情報

著者 Endong Gu,Yongxin Chen,Hao Wen,Xingju Cai,Deren Han
発行日 2024-07-12 15:37:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC パーマリンク