MultIOD: Rehearsal-free Multihead Incremental Object Detector

要約

クラス増加学習(CIL)とは、人工エージェントが、新しいクラスがストリームに現れたときに、それを統合する能力のことである。これは、エージェントがメモリや計算リソースへのアクセスが限られている進化的な環境において、特に興味深いものである。インクリメンタル学習の主な課題は、壊滅的な忘却(新しい知識を学習する際に、ニューラルネットワークが過去の知識を保持できないこと)である。残念ながら、物体検出のための既存のクラス漸増的手法のほとんどは、Faster-RCNNのような2段階アルゴリズムに適用され、過去の知識を保持するためにリハーサル記憶に依存している。我々は、これらは現実的ではなく、アンカーフリーでリハーサルフリーの物体検出にもっと力を注ぐべきだと主張する。この文脈において、我々はCenterNetに基づくクラス増加型物体検出器であるMultIODを提案する。我々の主な貢献は以下の通りである:(1)クラス表現を効率的に分離するために、マルチヘッド特徴ピラミッドとマルチヘッド検出アーキテクチャを提案すること、(2)壊滅的な忘却に対処するために、最初に学習したクラスと漸増的に学習したクラスとの間の転移学習を採用すること、(3)冗長なボックスを除去するために、後処理としてクラス単位の非最大抑制を用いること、である。その結果、我々の手法は、2つのPascal VOCデータセットにおいて、メモリフットプリントを半分以上削減しつつ、様々な最新手法を凌駕することが示された。

要約(オリジナル)

Class-Incremental learning (CIL) refers to the ability of artificial agents to integrate new classes as they appear in a stream. It is particularly interesting in evolving environments where agents have limited access to memory and computational resources. The main challenge of incremental learning is catastrophic forgetting, the inability of neural networks to retain past knowledge when learning a new one. Unfortunately, most existing class-incremental methods for object detection are applied to two-stage algorithms such as Faster-RCNN, and rely on rehearsal memory to retain past knowledge. We argue that those are not realistic, and more effort should be dedicated to anchor-free and rehearsal-free object detection. In this context, we propose MultIOD, a class-incremental object detector based on CenterNet. Our main contributions are: (1) we propose a multihead feature pyramid and multihead detection architecture to efficiently separate class representations, (2) we employ transfer learning between classes learned initially and those learned incrementally to tackle catastrophic forgetting, and (3) we use a class-wise non-max-suppression as a post-processing technique to remove redundant boxes. Results show that our method outperforms a range of state-of-the-art methods on two Pascal VOC datasets, while reducing memory footprint by more than half.

arxiv情報

著者 Eden Belouadah,Arnaud Dapogny,Kevin Bailly
発行日 2024-03-02 16:41:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク