Class-Incremental Learning of Plant and Disease Detection: Growing Branches with Knowledge Distillation

要約

タイトル:知識蒸留による植物および病気検出のクラス増分学習:知識蒸留とともに成長する枝

要約: この論文では、農業アプリケーションのクラス増分オブジェクト検出の問題を探究し、モデルが以前に学習したものを忘れることなく、新しい植物種や疾患を段階的に学習する必要がある状況を再現します。2つの一般的なデータセットを改良し、知識蒸留を利用して、変化に富んだシナリオをシミュレートします。3つのクラス増分学習方法を比較し、それぞれが致命的な忘却を軽減するために異なる形式の知識蒸留を利用することを確認します。しかし、ILODおよびFaster-ILODよりも、さらに新しいタスクを学習するために新しい枝を成長させる動的アーキテクチャを追加的に使用するDynamic Y-KDアプローチが、新しいおよび古いクラスの両方において、大半のシナリオで優れた性能を発揮することが実験で示されました。これらの結果は、農業アプリケーションの継続的な物体検出の困難さと機会を強調しています。特に、植物画像に典型的な大きなクラス内変動性と小さなクラス間変動性は、以前の知識を妨げることなく新しいカテゴリを学習する難しさを悪化させます。私たちはコードを公開して今後の研究を促進します。

要約(オリジナル)

This paper investigates the problem of class-incremental object detection for agricultural applications where a model needs to learn new plant species and diseases incrementally without forgetting the previously learned ones. We adapt two public datasets to include new categories over time, simulating a more realistic and dynamic scenario. We then compare three class-incremental learning methods that leverage different forms of knowledge distillation to mitigate catastrophic forgetting. Our experiments show that all three methods suffer from catastrophic forgetting, but the recent Dynamic Y-KD approach, which additionally uses a dynamic architecture that grows new branches to learn new tasks, outperforms ILOD and Faster-ILOD in most scenarios both on new and old classes. These results highlight the challenges and opportunities of continual object detection for agricultural applications. In particular, the large intra-class and small inter-class variability that is typical of plant images exacerbate the difficulty of learning new categories without interfering with previous knowledge. We publicly release our code to encourage future work.

arxiv情報

著者 Mathieu Pagé Fortin
発行日 2023-04-13 15:40:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク