Teach YOLO to Remember: A Self-Distillation Approach for Continual Object Detection

要約

Yoloのようなリアルタイムオブジェクト検出器は、複数のエポックの大きなデータセットで訓練された場合、例外的なパフォーマンスを実現します。
ただし、データが段階的に到着する実際のシナリオでは、ニューラルネットワークは壊滅的な忘却に苦しみ、以前に学習された知識の喪失につながります。
これに対処するために、以前の研究では、2段階のオブジェクト検出器に焦点を当てたほとんどのアプローチを使用して、オブジェクト検出(CLOD)の継続的な学習におけるクラス増分学習(CIL)の戦略を調査しました。
ただし、既存の研究では、忘れずに学習(LWF)は、騒々しい回帰出力のためにヨーロのような1段階のない検出器にとって効果がない可能性があることを示唆しています。
この作業では、Yoloベースの継続的なオブジェクト検出に合わせた自己抵抗アプローチであるYolo LWFを紹介します。
リプレイメモリと相まって、ヨロLWFが忘却を大幅に軽減することを実証します。
以前のアプローチと比較して、最先端のパフォーマンスを達成し、それぞれVOCおよびCOCOベンチマークでMAPを +2.1%および +2.9%改善します。

要約(オリジナル)

Real-time object detectors like YOLO achieve exceptional performance when trained on large datasets for multiple epochs. However, in real-world scenarios where data arrives incrementally, neural networks suffer from catastrophic forgetting, leading to a loss of previously learned knowledge. To address this, prior research has explored strategies for Class Incremental Learning (CIL) in Continual Learning for Object Detection (CLOD), with most approaches focusing on two-stage object detectors. However, existing work suggests that Learning without Forgetting (LwF) may be ineffective for one-stage anchor-free detectors like YOLO due to noisy regression outputs, which risk transferring corrupted knowledge. In this work, we introduce YOLO LwF, a self-distillation approach tailored for YOLO-based continual object detection. We demonstrate that when coupled with a replay memory, YOLO LwF significantly mitigates forgetting. Compared to previous approaches, it achieves state-of-the-art performance, improving mAP by +2.1% and +2.9% on the VOC and COCO benchmarks, respectively.

arxiv情報

著者 Riccardo De Monte,Davide Dalle Pezze,Gian Antonio Susto
発行日 2025-03-06 18:31:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク