Continual Detection Transformer for Incremental Object Detection

要約

タイトル:Incremental Object Detectionに向けたContinual Detection Transformer

要約:
– Incremental Object Detection(IOD)は、新しい物体カテゴリーに対する注釈がある各フェーズでobject detectorをトレーニングすることを目的としています。
– IODは、カタストロフィックな失念にさらされるため、知識蒸留(KD)やエグザンプラーリプレイ(ER)などの技術によって解消されることが多いです。
– しかし、KDやERはDeformable DETRやUP-DETRなどの最先端のトランスフォーマーベースのオブジェクト検出器に直接適用するとうまく機能しないことがあります。
– 本論文では、CL-DETRと呼ばれるContinuaL DEtection TRansformerを提案し、トランスフォーマーベースのIODにおいてKDやERの効果的な使用を可能にします。
– 最初に、DKD(Detector Knowledge Distillation)ロスを導入し、古いバージョンのモデルから最も情報豊富で信頼性の高い予測に焦点を合わせ、冗長な背景予測を無視し、利用可能なグラウンドトゥルースラベルとの互換性を確保します。
-また、トレーニングセットのラベル分布を保持するキャリブレーション戦略を提案することにより、ERを改善します。
– COCO2017での詳細な実験を実施し、CL-DETRがIOD設定で最先端の結果を示すことを実証します。

要約(オリジナル)

Incremental object detection (IOD) aims to train an object detector in phases, each with annotations for new object categories. As other incremental settings, IOD is subject to catastrophic forgetting, which is often addressed by techniques such as knowledge distillation (KD) and exemplar replay (ER). However, KD and ER do not work well if applied directly to state-of-the-art transformer-based object detectors such as Deformable DETR and UP-DETR. In this paper, we solve these issues by proposing a ContinuaL DEtection TRansformer (CL-DETR), a new method for transformer-based IOD which enables effective usage of KD and ER in this context. First, we introduce a Detector Knowledge Distillation (DKD) loss, focusing on the most informative and reliable predictions from old versions of the model, ignoring redundant background predictions, and ensuring compatibility with the available ground-truth labels. We also improve ER by proposing a calibration strategy to preserve the label distribution of the training set, therefore better matching training and testing statistics. We conduct extensive experiments on COCO 2017 and demonstrate that CL-DETR achieves state-of-the-art results in the IOD setting.

arxiv情報

著者 Yaoyao Liu,Bernt Schiele,Andrea Vedaldi,Christian Rupprecht
発行日 2023-04-06 14:38:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク