要約
フェデレーテッド ラーニング (FL) は、分散型機械学習フレームワークであり、中央サーバーのグローバル モデルが、データを共有することなく参加するクライアントによって複数の共同ステップを介してトレーニングされます。
柔軟なフレームワークである一方で、ローカル データの分布、参加率、各クライアントのコンピューティング能力は大きく異なる可能性がありますが、そのような柔軟性により、特にクライアント側でのハイパーパラメータ調整において多くの新たな課題が生じます。
私たちは $\Delta$-SGD を提案します。これは、各クライアントが最適化している関数の局所的な滑らかさに適応することで、各クライアントが独自のステップ サイズを使用できるようにする SGD の単純なステップ サイズ ルールです。
さまざまな FL シナリオでクライアントの適応性の利点が示される理論的および経験的な結果を提供します。
要約(オリジナル)
Federated learning (FL) is a distributed machine learning framework where the global model of a central server is trained via multiple collaborative steps by participating clients without sharing their data. While being a flexible framework, where the distribution of local data, participation rate, and computing power of each client can greatly vary, such flexibility gives rise to many new challenges, especially in the hyperparameter tuning on the client side. We propose $\Delta$-SGD, a simple step size rule for SGD that enables each client to use its own step size by adapting to the local smoothness of the function each client is optimizing. We provide theoretical and empirical results where the benefit of the client adaptivity is shown in various FL scenarios.
arxiv情報
著者 | Junhyung Lyle Kim,Mohammad Taha Toghani,César A. Uribe,Anastasios Kyrillidis |
発行日 | 2023-10-06 16:02:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google