要約
最近の空中物体検出モデルは、ラベル付けされた大量のトレーニング データに依存しており、物体が密集している大規模な空中シーンでは手ごろな価格の手動ラベル付けコストが必要です。
能動学習は、有益で代表的なラベルのないサンプルを選択的にクエリすることにより、データのラベル付けコストを削減するのに効果的です。
ただし、既存の能動学習方法は主に、一般的なオブジェクト検出タスクのクラスバランス設定と画像ベースのクエリを使用しており、空中シーンのロングテールクラス分布と高密度の小さなオブジェクトにより、空中オブジェクト検出シナリオにはあまり適用されません。
この論文では、費用対効果の高い空中物体検出のための新しい能動学習法を提案します。
具体的には、冗長で近視眼的なクエリを控えるために、オブジェクトの選択ではオブジェクト レベルと画像レベルの両方の有益性が考慮されます。
さらに、使いやすいクラスバランス基準が組み込まれており、少数オブジェクトを優先して、モデルトレーニングにおけるロングテールクラス分布の問題を軽減します。
クエリされた情報を十分に活用するために、未発見の画像領域の潜在的な知識をマイニングするためのトレーニング ロスをさらに考案します。
提案された方法の有効性を検証するために、DOTA-v1.0 および DOTA-v2.0 ベンチマークで広範な実験が行われます。
結果は、ベースラインおよび最先端のアクティブオブジェクト検出方法と比較して、同じパフォーマンスに到達するためにラベリングコストの 75% 以上を節約できることを示しています。
コードは \href{https://github.com/ZJW700/MUS-CDB}{\textit{https://github.com/ZJW700/MUS-CDB}} で入手できます。
要約(オリジナル)
Recent aerial object detection models rely on a large amount of labeled training data, which requires unaffordable manual labeling costs in large aerial scenes with dense objects. Active learning is effective in reducing the data labeling cost by selectively querying the informative and representative unlabelled samples. However, existing active learning methods are mainly with class-balanced setting and image-based querying for generic object detection tasks, which are less applicable to aerial object detection scenario due to the long-tailed class distribution and dense small objects in aerial scenes. In this paper, we propose a novel active learning method for cost-effective aerial object detection. Specifically, both object-level and image-level informativeness are considered in the object selection to refrain from redundant and myopic querying. Besides, an easy-to-use class-balancing criterion is incorporated to favor the minority objects to alleviate the long-tailed class distribution problem in model training. To fully utilize the queried information, we further devise a training loss to mine the latent knowledge in the undiscovered image regions. Extensive experiments are conducted on the DOTA-v1.0 and DOTA-v2.0 benchmarks to validate the effectiveness of the proposed method. The results show that it can save more than 75% of the labeling cost to reach the same performance compared to the baselines and state-of-the-art active object detection methods. Code is available at \href{https://github.com/ZJW700/MUS-CDB}{\textit{https://github.com/ZJW700/MUS-CDB}}.
arxiv情報
著者 | Dong Liang,Jing-Wei Zhang,Ying-Peng Tang,Sheng-Jun Huang |
発行日 | 2022-12-21 15:54:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google