要約
Online Class-Incremental Learning (OCIL) は、単一パスのデータ ストリームから新しい情報を継続的に学習して、モデルを更新し、壊滅的な忘却を軽減することを目的としています。
ただし、ほとんどの既存の OCIL メソッドでは、フェーズ間でクラスが重複しないことや、各学習フェーズのクラス数が等しいことなど、いくつかの仮定が行われています。
これは、典型的な現実世界のシナリオを非常に単純化したものです。
このホワイト ペーパーでは、これらの仮定を取り除き、既存の OCIL メソッドのパフォーマンスを大幅に改善することで、OCIL を実際の食品画像分類タスクに拡張します。
最初に、新しいベンチマーク実験プロトコルとして、厳格、中等度、オープン ダイエットなど、さまざまなシナリオで現実的な食品データ シーケンスをシミュレートする新しい確率論的フレームワークを紹介します。
次に、モデル更新のトレーニング中に関連する画像を動的に選択して、学習と忘却のパフォーマンスを向上させる新しいプラグアンドプレイ モジュールを提案します。
私たちが提案したモジュールは、既存のエクスペリエンス リプレイ (ER) メソッドに組み込むことができます。これは、知識のリハーサルのために、各クラスの代表的なサンプルをエピソード メモリ バッファーに格納します。
挑戦的なFood-101データセットでメソッドを評価し、現在のOCILメソッドよりも大幅に改善されていることを示し、現実世界の食品画像分類の生涯学習の大きな可能性を示しています.
要約(オリジナル)
Online Class-Incremental Learning (OCIL) aims to continuously learn new information from single-pass data streams to update the model and mitigate catastrophic forgetting. However, most existing OCIL methods make several assumptions, including non-overlapped classes across phases and an equal number of classes in each learning phase. This is a highly simplified view of typical real-world scenarios. In this paper, we extend OCIL to the real-world food image classification task by removing these assumptions and significantly improving the performance of existing OCIL methods. We first introduce a novel probabilistic framework to simulate realistic food data sequences in different scenarios, including strict, moderate, and open diets, as a new benchmark experiment protocol. Next, we propose a novel plug-and-play module to dynamically select relevant images during training for the model update to improve learning and forgetting performance. Our proposed module can be incorporated into existing Experience Replay (ER) methods, which store representative samples from each class into an episodic memory buffer for knowledge rehearsal. We evaluate our method on the challenging Food-101 dataset and show substantial improvements over the current OCIL methods, demonstrating great potential for lifelong learning of real-world food image classification.
arxiv情報
著者 | Siddeshwar Raghavan,Jiangpeng He,Fengqing Zhu |
発行日 | 2023-01-12 19:00:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google