DPNet: Dynamic Pooling Network for Tiny Object Detection

要約

無人航空機システム、特に複雑な環境では、小さな物体を正確に検出することが極めて重要である。画像のリサイズは、特に小さな物体の検出精度を向上させるための一般的な戦略である。しかし、単に画像を拡大するだけでは、計算コストと負サンプル数が大幅に増加するため、検出性能が著しく低下し、適用が制限される。本論文では、これらの問題を軽減するために、微小物体検出のためのダイナミックプーリングネットワーク(DPNet)を提案する。DPNetは、特徴マップの固定的なダウンサンプリング処理を調整可能なものに緩和する係数(df)を導入することにより、柔軟なダウンサンプリング戦略を採用する。さらに、各入力画像に対してdfを予測する軽量な予測器を設計し、これを用いてバックボーン内の特徴マップの解像度を下げる。こうして、入力を考慮したダウンサンプリングを実現する。また、適応的正規化モジュール(ANM)を設計し、統一された検出器を異なるdfsに対応させる。ガイダンスロスは予測器の学習を監督する。DPNetは検出精度と効率をトレードオフさせるためにコンピューティングリソースを動的に割り当てる。TinyCOCOとTinyPersonデータセットでの実験から、DPNetは同等の検出性能を維持しながら、それぞれ35%以上と25%以上のGFLOPを節約できることが示された。コードは公開される予定です。

要約(オリジナル)

In unmanned aerial systems, especially in complex environments, accurately detecting tiny objects is crucial. Resizing images is a common strategy to improve detection accuracy, particularly for small objects. However, simply enlarging images significantly increases computational costs and the number of negative samples, severely degrading detection performance and limiting its applicability. This paper proposes a Dynamic Pooling Network (DPNet) for tiny object detection to mitigate these issues. DPNet employs a flexible down-sampling strategy by introducing a factor (df) to relax the fixed downsampling process of the feature map to an adjustable one. Furthermore, we design a lightweight predictor to predict df for each input image, which is used to decrease the resolution of feature maps in the backbone. Thus, we achieve input-aware downsampling. We also design an Adaptive Normalization Module (ANM) to make a unified detector compatible with different dfs. A guidance loss supervises the predictor’s training. DPNet dynamically allocates computing resources to trade off between detection accuracy and efficiency. Experiments on the TinyCOCO and TinyPerson datasets show that DPNet can save over 35% and 25% GFLOPs, respectively, while maintaining comparable detection performance. The code will be made publicly available.

arxiv情報

著者 Luqi Gong,Haotian Chen,Yikun Chen,Tianliang Yao,Chao Li,Shuai Zhao,Guangjie Han
発行日 2025-05-05 17:13:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク