要約
継続学習により、モデルは、前のタスクのトレーニング データなしで古い知識を保持しながら、複数のタスクを順番に学習できます。
この論文では、継続的学習の研究範囲を \ac{mot} のクラス増分学習に拡張します。これは、自律システムの継続的に進化するニーズに対応するために望ましいものです。
オブジェクト検出器を継続的に学習するための以前のソリューションは、外観ベースのトラッカーのデータ関連付け段階に対応していないため、以前のクラスの再識別機能が壊滅的に忘れられてしまいます。
COOLer は、継続学習および継続学習ベースのトラッカーです。これは、現在利用可能なグラウンド トゥルース ラベルと過去のトラッカーによって生成された疑似ラベルの組み合わせでトレーニングすることで、過去の知識を保存しながら、新しいカテゴリを追跡することを段階的に学習します。
インスタンス表現のもつれをさらに悪化させるために、新しい対照的なクラス増分インスタンス表現学習手法を導入します。
最後に、MOT の継続学習のための実用的な評価プロトコルを提案し、\bdd および \shift データセットで実験を行います。
実験結果は、COOLer が継続的に学習しながら、追跡と検出の両方の壊滅的な忘れに効果的に対処していることを示しています。
コードは \url{https://github.com/BoSmallEar/COOLer} で入手できます。
要約(オリジナル)
Continual learning allows a model to learn multiple tasks sequentially while retaining the old knowledge without the training data of the preceding tasks. This paper extends the scope of continual learning research to class-incremental learning for \ac{mot}, which is desirable to accommodate the continuously evolving needs of autonomous systems. Previous solutions for continual learning of object detectors do not address the data association stage of appearance-based trackers, leading to catastrophic forgetting of previous classes’ re-identification features. We introduce COOLer, a COntrastive- and cOntinual-Learning-based tracker, which incrementally learns to track new categories while preserving past knowledge by training on a combination of currently available ground truth labels and pseudo-labels generated by the past tracker. To further exacerbate the disentanglement of instance representations, we introduce a novel contrastive class-incremental instance representation learning technique. Finally, we propose a practical evaluation protocol for continual learning for MOT and conduct experiments on the \bdd and \shift datasets. Experimental results demonstrate that COOLer continually learns while effectively addressing catastrophic forgetting of both tracking and detection. The code is available at \url{https://github.com/BoSmallEar/COOLer}.
arxiv情報
著者 | Zhizheng Liu,Mattia Segu,Fisher Yu |
発行日 | 2023-10-04 17:49:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google