Replay Consolidation with Label Propagation for Continual Object Detection

要約

物体検出は、ロボット工学や自動運転などの多くのアプリケーションに関連性の高いコンピューター ビジョンの問題です。
継続学習~(CL) では、モデルが以前に取得した知識を保持しながら新しい情報を段階的に学習する設定を考慮します。
深層学習モデルは新しいデータでトレーニングしている間に古い知識を壊滅的に忘れてしまう傾向があるため、これは特に困難です。
特に、オブジェクト検出のための継続学習 (CLOD) は、分類のための CL と比較して、さらなる困難をもたらします。
CLOD では、以前のタスクのイメージに未知のクラスが含まれている可能性があり、将来のタスクで再びラベル付けされる可能性があります。
これらの注釈の欠落により、リプレイベースのアプローチでタスク干渉の問題が発生します。
その結果、文献のほとんどの作品は蒸留ベースのアプローチに焦点を当ててきました。
ただし、これらのアプローチは、タスク間でクラスが強く重複している場合にのみ有効です。
現在の方法論の問題に対処するために、我々は、オブジェクト検出のためのラベル伝播による再生統合 (RCLPOD) と呼ばれる CLOD を解決するための新しい手法を提案します。
再生方法に基づいた当社のソリューションは、バッファ メモリ サンプルを強化することでタスク干渉の問題を回避します。
当社の手法は CLOD 文献の既存の手法と比較して評価され、VOC や COCO などの確立されたベンチマークで優れたパフォーマンスを実証しています。

要約(オリジナル)

Object Detection is a highly relevant computer vision problem with many applications such as robotics and autonomous driving. Continual Learning~(CL) considers a setting where a model incrementally learns new information while retaining previously acquired knowledge. This is particularly challenging since Deep Learning models tend to catastrophically forget old knowledge while training on new data. In particular, Continual Learning for Object Detection~(CLOD) poses additional difficulties compared to CL for Classification. In CLOD, images from previous tasks may contain unknown classes that could reappear labeled in future tasks. These missing annotations cause task interference issues for replay-based approaches. As a result, most works in the literature have focused on distillation-based approaches. However, these approaches are effective only when there is a strong overlap of classes across tasks. To address the issues of current methodologies, we propose a novel technique to solve CLOD called Replay Consolidation with Label Propagation for Object Detection (RCLPOD). Based on the replay method, our solution avoids task interference issues by enhancing the buffer memory samples. Our method is evaluated against existing techniques in CLOD literature, demonstrating its superior performance on established benchmarks like VOC and COCO.

arxiv情報

著者 Riccardo De Monte,Davide Dalle Pezze,Marina Ceccon,Francesco Pasti,Francesco Paissan,Elisabetta Farella,Gian Antonio Susto,Nicola Bellotto
発行日 2024-09-09 14:16:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク