要約
より現実的で動的な問題をモデル化できるため、Federated Continual Learning (FCL) の研究が最近ますます増えています。
この設定で遭遇するよく知られた問題は、いわゆる壊滅的な忘却です。これにより、学習モデルは、以前に学習した知識を忘れる一方で、より最近のタスクに集中する傾向があります。
FCL における現在のアプローチの大部分は、上記の問題を解決するための生成ベースのソリューションを提案しています。
ただし、この設定にはデータに対する複数のトレーニング エポックが必要であり、データセットがローカルに保存され、時間が経っても変更されないオフライン設定を意味します。
さらに、提案されたソリューションは視覚タスク専用に調整されています。
これらの制限を克服するために、新しいデータが 1 回しか処理できないミニバッチのストリームで到着するオンライン シナリオでさまざまなモダリティに対処する新しいアプローチを提案します。
壊滅的な忘却を解決するために、不確実性を認識した記憶ベースのアプローチを提案します。
具体的には、ブレグマン情報 (BI) に基づく推定器を使用して、サンプル レベルでモデルの分散を計算することをお勧めします。
予測不確実性の測定を通じて、特定の特性を持つサンプルを取得し、そのようなサンプルでモデルを再トレーニングすることにより、データの機密性と状態と比較して競争力のある通信効率を維持しながら、現実的な設定で忘却の影響を軽減するこのアプローチの可能性を実証します。
最先端のアプローチ。
要約(オリジナル)
Given the ability to model more realistic and dynamic problems, Federated Continual Learning (FCL) has been increasingly investigated recently. A well-known problem encountered in this setting is the so-called catastrophic forgetting, for which the learning model is inclined to focus on more recent tasks while forgetting the previously learned knowledge. The majority of the current approaches in FCL propose generative-based solutions to solve said problem. However, this setting requires multiple training epochs over the data, implying an offline setting where datasets are stored locally and remain unchanged over time. Furthermore, the proposed solutions are tailored for vision tasks solely. To overcome these limitations, we propose a new approach to deal with different modalities in the online scenario where new data arrive in streams of mini-batches that can only be processed once. To solve catastrophic forgetting, we propose an uncertainty-aware memory-based approach. Specifically, we suggest using an estimator based on the Bregman Information (BI) to compute the model’s variance at the sample level. Through measures of predictive uncertainty, we retrieve samples with specific characteristics, and – by retraining the model on such samples – we demonstrate the potential of this approach to reduce the forgetting effect in realistic settings while maintaining data confidentiality and competitive communication efficiency compared to state-of-the-art approaches.
arxiv情報
著者 | Giuseppe Serra,Florian Buettner |
発行日 | 2024-10-15 15:53:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google