要約
フェデレーテッド ラーニング (FL) は、プライバシーを重視した分散学習フレームワークを提供し、データ交換を必要とせずに個々のクライアントでのモデル トレーニングと中央集約を可能にします。
それにもかかわらず、FL の実装では、多くの場合、非 i.i.d. の問題が発生します。
自動運転車などのモバイルアプリケーション全体にわたるロングテールクラス分布により、ローカルトレーニングが最適以下に収束する可能性があるため、モデルが過剰適合につながります。
私たちの研究では、データの異質性がモデルのバイアスに及ぼす影響を調査し、革新的なパーソナライズされた FL フレームワークであるマルチレベル パーソナライズド フェデレーション ラーニング (MuPFL) を導入します。このフレームワークは、FL の階層アーキテクチャを活用して、さまざまなレベルで計算リソースを完全に活用します。
このフレームワークには、3 つの重要なモジュールが統合されています。過学習を軽減し、トレーニングを加速する Biased Activation Value Dropout (BAVD)。
アダプティブ クラスター ベースのモデル アップデート (ACMU) によりローカル モデルを改良し、一貫したグローバル集約を保証します。
事前知識支援分類子微調整 (PKCF) により、分類を強化し、共有された知識を使用して偏ったローカル データに応じてモデルをパーソナライズします。
画像分類とセマンティック セグメンテーションのための現実世界の多様なデータセットに対する広範な実験により、極端な非 i.i.d.環境下でも、MuPFL が常に最先端のベースラインを上回るパフォーマンスを発揮することが検証されました。
ロングテール条件では、精度が 7.39% 向上し、トレーニングが最大 80% 高速化され、効率と有効性の両方で大幅な進歩が見られます。
要約(オリジナル)
Federated learning (FL) offers a privacy-centric distributed learning framework, enabling model training on individual clients and central aggregation without necessitating data exchange. Nonetheless, FL implementations often suffer from non-i.i.d. and long-tailed class distributions across mobile applications, e.g., autonomous vehicles, which leads models to overfitting as local training may converge to sub-optimal. In our study, we explore the impact of data heterogeneity on model bias and introduce an innovative personalized FL framework, Multi-level Personalized Federated Learning (MuPFL), which leverages the hierarchical architecture of FL to fully harness computational resources at various levels. This framework integrates three pivotal modules: Biased Activation Value Dropout (BAVD) to mitigate overfitting and accelerate training; Adaptive Cluster-based Model Update (ACMU) to refine local models ensuring coherent global aggregation; and Prior Knowledge-assisted Classifier Fine-tuning (PKCF) to bolster classification and personalize models in accord with skewed local data with shared knowledge. Extensive experiments on diverse real-world datasets for image classification and semantic segmentation validate that MuPFL consistently outperforms state-of-the-art baselines, even under extreme non-i.i.d. and long-tail conditions, which enhances accuracy by as much as 7.39% and accelerates training by up to 80% at most, marking significant advancements in both efficiency and effectiveness.
arxiv情報
著者 | Rongyu Zhang,Yun Chen,Chenrui Wu,Fangxin Wang,Bo Li |
発行日 | 2024-05-10 11:52:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google