要約
Federated Learning(FL)は、複数のエンティティがローカルデータを交換することなく、共有モデルを共同で学習することを可能にする機械学習技術である。過去10年間で、FLシステムは大きな進歩を遂げ、有意義な差分プライバシー(DP)保証を提供しながら、様々な学習領域で数百万台のデバイスに拡張できるようになりました。Google、Apple、Metaのような組織によるプロダクションシステムは、FLが実世界で適用可能であることを示している。しかし、サーバー側のDP保証の検証や、異種デバイス間でのトレーニングの調整など、重要な課題が残っており、より広範な採用には限界がある。さらに、大規模な(マルチモーダル)モデルや、トレーニング、推論、パーソナライゼーションの間の曖昧な境界線といった新たなトレンドが、従来のFLフレームワークに挑戦している。これに対して我々は、厳格な定義よりもプライバシーの原則を優先する、再定義されたFLフレームワークを提案する。また、これらの課題に対処し、FLにおける将来の進歩を促進するために、信頼された実行環境とオープンソースエコシステムを活用することで、前進する道筋を描く。
要約(オリジナル)
Federated Learning (FL) is a machine learning technique that enables multiple entities to collaboratively learn a shared model without exchanging their local data. Over the past decade, FL systems have achieved substantial progress, scaling to millions of devices across various learning domains while offering meaningful differential privacy (DP) guarantees. Production systems from organizations like Google, Apple, and Meta demonstrate the real-world applicability of FL. However, key challenges remain, including verifying server-side DP guarantees and coordinating training across heterogeneous devices, limiting broader adoption. Additionally, emerging trends such as large (multi-modal) models and blurred lines between training, inference, and personalization challenge traditional FL frameworks. In response, we propose a redefined FL framework that prioritizes privacy principles rather than rigid definitions. We also chart a path forward by leveraging trusted execution environments and open-source ecosystems to address these challenges and facilitate future advancements in FL.
arxiv情報
著者 | Katharine Daly,Hubert Eichner,Peter Kairouz,H. Brendan McMahan,Daniel Ramage,Zheng Xu |
発行日 | 2025-03-03 04:14:17+00:00 |
arxivサイト | arxiv_id(pdf) |