要約
Federated学習は、機械学習の新しいパラダイムであり、ローカルデータを交換することなく、クライアントが共同して学習することを可能にする。学習プロセスに参加するクライアントは、収束率、学習効率、モデルの汎化に重要な影響を与える。本研究では、クライアントフィルタリングを導入することで、クライアントの参加と学習を最適化する新しいアプローチであるFilFLを提案する。FilFLは、効率的な貪欲なフィルタリングアルゴリズムを用いて、組合せ目的関数を最大化するサブセットを特定するために、利用可能なクライアントを定期的にフィルタリングする。このフィルタリングされたサブセットから、トレーニングプロセスのためにクライアントが選択されます。我々は、異種混合環境におけるFilFLの収束に関する徹底的な分析を行い、多様な視覚および言語タスクと、クライアントの可用性が時間的に変化する現実的な連携シナリオにおいて、その性能を評価する。その結果、学習効率の向上、収束の高速化、クライアントフィルタリングを利用しないシナリオと比較して最大10%ポイント高いテスト精度など、本アプローチのいくつかの利点が実証されました。
要約(オリジナル)
Federated learning is an emerging machine learning paradigm that enables clients to train collaboratively without exchanging local data. The clients participating in the training process have a crucial impact on the convergence rate, learning efficiency, and model generalization. In this work, we propose FilFL, a new approach to optimizing client participation and training by introducing client filtering. FilFL periodically filters the available clients to identify a subset that maximizes a combinatorial objective function using an efficient greedy filtering algorithm. From this filtered-in subset, clients are then selected for the training process. We provide a thorough analysis of FilFL convergence in a heterogeneous setting and evaluate its performance across diverse vision and language tasks and realistic federated scenarios with time-varying client availability. Our empirical results demonstrate several benefits of our approach, including improved learning efficiency, faster convergence, and up to 10 percentage points higher test accuracy compared to scenarios where client filtering is not utilized.
arxiv情報
| 著者 | Fares Fourati,Salma Kharrat,Vaneet Aggarwal,Mohamed-Slim Alouini,Marco Canini |
| 発行日 | 2023-06-05 17:58:24+00:00 |
| arxivサイト | arxiv_id(pdf) |