要約
クラス増分学習 (CIL) とは、ストリームに出現する新しいクラスを統合する人工エージェントの能力を指します。
これは、エージェントがメモリや計算リソースへのアクセスが制限されている進化する環境では特に興味深いものです。
増分学習の主な課題は、壊滅的な忘却、つまり新しい知識を学習するときにニューラル ネットワークが過去の知識を保持できないことです。
残念なことに、オブジェクト検出のための既存のクラス増分法のほとんどは、Faster-RCNN などの 2 段階アルゴリズムに適用されており、過去の知識を保持するためにリハーサル記憶に依存しています。
私たちは、これらはリソースが限られた環境には適しておらず、アンカーフリーおよびリハーサルフリーの物体検出にさらなる努力を注ぐ必要があると主張します。
この論文では、CenterNet に基づくクラス増分オブジェクト検出器 MultIOD を提案します。
私たちの貢献は次のとおりです: (1) クラス表現を効率的に分離するためのマルチヘッド特徴ピラミッドとマルチヘッド検出アーキテクチャを提案します。(2) 最初に学習したクラスと段階的に学習したクラスの間で転移学習を採用し、壊滅的な忘却に対処します。(3)
冗長なボックスを削除するための後処理手法としてのクラス単位の非最大抑制。
結果は、他の蒸留ベースの対応物とは対照的に、モデルを現在の状態で保存するだけでありながら、私たちの方法が 2 つの Pascal VOC データセットで最先端の方法よりも優れていることを示しています。
要約(オリジナル)
Class-Incremental learning (CIL) refers to the ability of artificial agents to integrate new classes as they appear in a stream. It is particularly interesting in evolving environments where agents have limited access to memory and computational resources. The main challenge of incremental learning is catastrophic forgetting, the inability of neural networks to retain past knowledge when learning a new one. Unfortunately, most existing class-incremental methods for object detection are applied to two-stage algorithms such as Faster-RCNN, and rely on rehearsal memory to retain past knowledge. We argue that those are not suitable in resource-limited environments, and more effort should be dedicated to anchor-free and rehearsal-free object detection. In this paper, we propose MultIOD, a class-incremental object detector based on CenterNet. Our contributions are: (1) we propose a multihead feature pyramid and multihead detection architecture to efficiently separate class representations, (2) we employ transfer learning between classes learned initially and those learned incrementally to tackle catastrophic forgetting, and (3) we use a class-wise non-max-suppression as a post-processing technique to remove redundant boxes. Results show that our method outperforms state-of-the-art methods on two Pascal VOC datasets, while only saving the model in its current state, contrary to other distillation-based counterparts.
arxiv情報
著者 | Eden Belouadah,Arnaud Dapogny,Kevin Bailly |
発行日 | 2024-04-09 13:54:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google