Class-Incremental Learning of Plant and Disease Detection: Growing Branches with Knowledge Distillation

要約

この論文では、モデルが以前に学習したものを忘れることなく新しい植物種と病気を段階的に学習する必要がある農業アプリケーション向けのクラス増分オブジェクト検出の問題を調査します。
2 つの公開データセットを時間の経過とともに適応させて新しいカテゴリを追加し、より現実的で動的なシナリオをシミュレートします。
次に、さまざまな形式の知識蒸留を活用して壊滅的な忘却を軽減する 3 つのクラス増分学習方法を比較します。
私たちの実験では、3 つの方法すべてが致命的な忘却に悩まされることを示していますが、新しいタスクを学習するために新しいブランチを成長させる動的アーキテクチャをさらに使用する動的 Y-KD アプローチは、新しいクラスと古いクラスの両方のほとんどの設定で ILOD および Faster-ILOD よりも優れたパフォーマンスを示します。

これらの結果は、農業用途における継続的な物体検出の課題と機会を浮き彫りにしています。
特に、植物画像に特有のクラス内変動が大きく、クラス間変動が小さいため、以前の知識を妨げずに新しいカテゴリを学習することの難しさがさらに悪化すると仮説を立てています。
今後の作業を促進するためにコードを公開します。

要約(オリジナル)

This paper investigates the problem of class-incremental object detection for agricultural applications where a model needs to learn new plant species and diseases incrementally without forgetting the previously learned ones. We adapt two public datasets to include new categories over time, simulating a more realistic and dynamic scenario. We then compare three class-incremental learning methods that leverage different forms of knowledge distillation to mitigate catastrophic forgetting. Our experiments show that all three methods suffer from catastrophic forgetting, but the Dynamic Y-KD approach, which additionally uses a dynamic architecture that grows new branches to learn new tasks, outperforms ILOD and Faster-ILOD in most settings both on new and old classes. These results highlight the challenges and opportunities of continual object detection for agricultural applications. In particular, we hypothesize that the large intra-class and small inter-class variability that is typical of plant images exacerbate the difficulty of learning new categories without interfering with previous knowledge. We publicly release our code to encourage future work.

arxiv情報

著者 Mathieu Pagé Fortin
発行日 2023-09-11 15:02:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク