Dynamic Curriculum Learning for Great Ape Detection in the Wild

要約

監視された種検出器を改善するために大量のラベルのないデータを活用して、まばらにラベルが付けられた動物データセットの新しいエンドツーエンドのカリキュラム学習アプローチを提案します。
困難な現実世界のジャングル環境で撮影されたカメラ トラップの映像で類人猿を見つけるタスクについて、この方法を詳細に例示します。
以前の半教師ありの方法とは対照的に、私たちのアプローチは学習パラメーターを時間の経過とともに動的に調整し、トレーニングを有徳な自己強化に向けることによって検出品質を徐々に改善します。
これを達成するために、疑似ラベリングをカリキュラム学習ポリシーと統合することを提案し、学習の崩壊を回避する方法を示します。
約を保持する拡張汎アフリカ データセットで評価する際の、さまざまな最先端システムに対する理論的議論、アブレーション、および大幅なパフォーマンスの向上について説明します。
180万フレーム。
また、ミツバチやスナップショット セレンゲティなどの他の動物データセットのスパース ラベル バージョンでは、この方法が教師付きベースラインよりも優れたパフォーマンスを発揮できることも示しています。
パフォーマンスの利点は、生態学的アプリケーションで一般的なラベル付き比率が小さい場合に最も強いことに注意してください。
最後に、私たちのアプローチが、MS-COCO および PASCAL-VOC で一般的なオブジェクト検出の競争力のあるベンチマークを達成することを示し、導入された動的学習の概念の幅広い適用性を示します。
完全な再現性のために、関連するすべてのソース コード、ネットワークの重み、およびデータ アクセスの詳細を公開します。
コードは https://github.com/youshyee/DCL-Detection で入手できます。

要約(オリジナル)

We propose a novel end-to-end curriculum learning approach for sparsely labelled animal datasets leveraging large volumes of unlabelled data to improve supervised species detectors. We exemplify the method in detail on the task of finding great apes in camera trap footage taken in challenging real-world jungle environments. In contrast to previous semi-supervised methods, our approach adjusts learning parameters dynamically over time and gradually improves detection quality by steering training towards virtuous self-reinforcement. To achieve this, we propose integrating pseudo-labelling with curriculum learning policies and show how learning collapse can be avoided. We discuss theoretical arguments, ablations, and significant performance improvements against various state-of-the-art systems when evaluating on the Extended PanAfrican Dataset holding approx. 1.8M frames. We also demonstrate our method can outperform supervised baselines with significant margins on sparse label versions of other animal datasets such as Bees and Snapshot Serengeti. We note that performance advantages are strongest for smaller labelled ratios common in ecological applications. Finally, we show that our approach achieves competitive benchmarks for generic object detection in MS-COCO and PASCAL-VOC indicating wider applicability of the dynamic learning concepts introduced. We publish all relevant source code, network weights, and data access details for full reproducibility. The code is available at https://github.com/youshyee/DCL-Detection.

arxiv情報

著者 Xinyu Yang,Tilo Burghardt,Majid Mirmehdi
発行日 2023-01-02 13:52:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク