要約
クラス増分学習は、目に見えないクラス インスタンスを既存のモデルに継続的に追加するときに発生する問題を解決することを目的としています。このアプローチは、画像分類のコンテキストで広く研究されています。
ただし、物体検出への適用性はまだ十分に確立されていません。
リプレイ手法を使用する既存のフレームワークは、主にトレーニングされるモデルを考慮せずにリプレイ データを収集し、ランダム性や各サンプルのラベルの数に依存する傾向があります。
また、リプレイの有効性にもかかわらず、オブジェクト検出タスクにはまだ最適化されていませんでした。
この論文では、オブジェクト検出時に最適化された再生バッファを作成する効果的なバッファ トレーニング戦略 (eBTS) を紹介します。
私たちのアプローチには、トレーニング済みモデルにカスタマイズされたバッファを確立するために、最小保証と階層サンプリングが組み込まれています。
これらの方法により、事前知識の効果的な検索が容易になります。
さらに、蓄積されたバッファデータを最適に活用するために、循環エクスペリエンス再生トレーニングを使用します。
MS COCO データセットの実験では、当社の eBTS が既存の再生スキームと比較して最先端のパフォーマンスを達成していることが実証されています。
要約(オリジナル)
Class incremental learning aims to solve a problem that arises when continuously adding unseen class instances to an existing model This approach has been extensively studied in the context of image classification; however its applicability to object detection is not well established yet. Existing frameworks using replay methods mainly collect replay data without considering the model being trained and tend to rely on randomness or the number of labels of each sample. Also, despite the effectiveness of the replay, it was not yet optimized for the object detection task. In this paper, we introduce an effective buffer training strategy (eBTS) that creates the optimized replay buffer on object detection. Our approach incorporates guarantee minimum and hierarchical sampling to establish the buffer customized to the trained model. %These methods can facilitate effective retrieval of prior knowledge. Furthermore, we use the circular experience replay training to optimally utilize the accumulated buffer data. Experiments on the MS COCO dataset demonstrate that our eBTS achieves state-of-the-art performance compared to the existing replay schemes.
arxiv情報
著者 | Junsu Kim,Sumin Hong,Chanwoo Kim,Jihyeon Kim,Yihalem Yimolal Tiruneh,Jeongwan On,Jihyun Song,Sunhwa Choi,Seungryul Baek |
発行日 | 2023-12-14 17:10:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google