要約
Federated Learning(FL)は、グローバルスケールでのプライベートユーザーデータに関する分散MLモデルトレーニングを可能にします。
多くのドメインで実証されたFLの可能性にもかかわらず、モデルの精度への影響の詳細なビューは不明のままです。
この論文では、この学習パラダイムがさまざまなMLタスクの最先端のMLモデルの精度にどのように影響するかを体系的に調査します。
テキスト、画像、オーディオ、ビデオ、およびFL構成ノブのさまざまなデータ型を含む経験的研究を提示します:データ分布、FLスケール、クライアントサンプリング、ローカルおよびグローバル計算。
私たちの実験は、統一されたFLフレームワークで行われ、高い忠実度を達成し、実質的な人間の努力と資源投資を伴います。
結果に基づいて、FLの影響の定量分析を実行し、FLを適用することでモデルの精度が大幅に低下し、影響が無視できるケースを特定する挑戦的なシナリオを強調します。
詳細かつ広範な調査結果は、実用的な展開とFLの将来の開発に役立つ可能性があります。
要約(オリジナル)
Federated Learning (FL) enables distributed ML model training on private user data at the global scale. Despite the potential of FL demonstrated in many domains, an in-depth view of its impact on model accuracy remains unclear. In this paper, we investigate, systematically, how this learning paradigm can affect the accuracy of state-of-the-art ML models for a variety of ML tasks. We present an empirical study that involves various data types: text, image, audio, and video, and FL configuration knobs: data distribution, FL scale, client sampling, and local and global computations. Our experiments are conducted in a unified FL framework to achieve high fidelity, with substantial human efforts and resource investments. Based on the results, we perform a quantitative analysis of the impact of FL, and highlight challenging scenarios where applying FL degrades the accuracy of the model drastically and identify cases where the impact is negligible. The detailed and extensive findings can benefit practical deployments and future development of FL.
arxiv情報
著者 | Haotian Yang,Zhuoran Wang,Benson Chou,Sophie Xu,Hao Wang,Jingxian Wang,Qizhen Zhang |
発行日 | 2025-03-26 17:52:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google