Federated Class-Incremental Learning with Hierarchical Generative Prototypes

要約

Federated Learning (FL) は、データのプライバシーを保護しながら、複数のデバイス (クライアント) に計算を分散することで、ディープ モデルのトレーニングの負担を軽減することを目的としています。
それに加えて、Federated Continual Learning (FCL) は、時間の経過とともに進化するデータ分散も考慮し、現実世界の環境の動的な性質を反映します。
これまでの研究では、壊滅的な忘却とクライアント ドリフトが FCL のパフォーマンス低下の主な原因であると特定されていますが、私たちは、モデルがそれぞれ最近導入されたクラスまたは局所的に優勢なクラスを優先する原因となる増分バイアスと統合バイアスの重要性を明らかにしました。
私たちの提案は、学習可能なプロンプトを使用して事前トレーニングされたバックボーンを効率的に微調整することにより、最後の層で両方のバイアスを制限し、その結果、クライアントが生成するバイアスの少ない表現と、よりバイアスの高い分類子を生成します。
したがって、パラメーターの集約だけに依存するのではなく、生成プロトタイプを活用して、グローバル モデルの予測のバランスを効果的にとります。
私たちの方法は現在の最先端技術を大幅に改善し、平均で +7.8% 精度が向上します。
結果を再現するコードは付録に記載されています。
材料。

要約(オリジナル)

Federated Learning (FL) aims at unburdening the training of deep models by distributing computation across multiple devices (clients) while safeguarding data privacy. On top of that, Federated Continual Learning (FCL) also accounts for data distribution evolving over time, mirroring the dynamic nature of real-world environments. While previous studies have identified Catastrophic Forgetting and Client Drift as primary causes of performance degradation in FCL, we shed light on the importance of Incremental Bias and Federated Bias, which cause models to prioritize classes that are recently introduced or locally predominant, respectively. Our proposal constrains both biases in the last layer by efficiently finetuning a pre-trained backbone using learnable prompts, resulting in clients that produce less biased representations and more biased classifiers. Therefore, instead of solely relying on parameter aggregation, we leverage generative prototypes to effectively balance the predictions of the global model. Our method significantly improves the current State Of The Art, providing an average increase of +7.8% in accuracy. Code to reproduce the results is provided in the suppl. material.

arxiv情報

著者 Riccardo Salami,Pietro Buzzega,Matteo Mosconi,Mattia Verasani,Simone Calderara
発行日 2024-10-23 15:48:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク