要約
深い畳み込みニューラルネットワークの台頭により、オブジェクト検出は過去数年間で目覚ましい進歩を遂げました。
しかし、そのような繁栄は、小さなターゲットの固有の構造によって引き起こされる見栄えの悪さとノイズの多い表現のために、コンピュータビジョンで悪名高い挑戦的なタスクの1つである小さなオブジェクト検出(SOD)の不十分な状況をカモフラージュできませんでした。
さらに、小さなオブジェクトの検出方法をベンチマークするための大規模なデータセットがボトルネックのままです。
この論文では、最初に小物検出の徹底的なレビューを行います。
次に、SODの開発を促進するために、2つの大規模な小型物体検出データセット(SODA)、SODA-DとSODA-Aを構築します。これらは、それぞれ運転シナリオと空中シナリオに焦点を当てています。
SODA-Dには、24704の高品質の交通画像と9つのカテゴリの277596のインスタンスが含まれています。
SODA-Aの場合、2510個の高解像度航空写真を収集し、9つのクラスにわたって800203個のインスタンスに注釈を付けます。
提案されたデータセットは、私たちが知っているように、マルチカテゴリSOD用に調整された徹底的に注釈が付けられたインスタンスの膨大なコレクションを使用した大規模なベンチマークへの初めての試みです。
最後に、SODAでの主流のメソッドのパフォーマンスを評価します。
リリースされたベンチマークは、SODの開発を促進し、この分野でより多くのブレークスルーを生み出す可能性があると期待しています。
データセットとコードは、間もなく\url{https://shaunyuan22.github.io/SODA}で利用できるようになります。
要約(オリジナル)
With the rise of deep convolutional neural networks, object detection has achieved prominent advances in past years. However, such prosperity could not camouflage the unsatisfactory situation of Small Object Detection (SOD), one of the notoriously challenging tasks in computer vision, owing to the poor visual appearance and noisy representation caused by the intrinsic structure of small targets. In addition, large-scale dataset for benchmarking small object detection methods remains a bottleneck. In this paper, we first conduct a thorough review of small object detection. Then, to catalyze the development of SOD, we construct two large-scale Small Object Detection dAtasets (SODA), SODA-D and SODA-A, which focus on the Driving and Aerial scenarios respectively. SODA-D includes 24704 high-quality traffic images and 277596 instances of 9 categories. For SODA-A, we harvest 2510 high-resolution aerial images and annotate 800203 instances over 9 classes. The proposed datasets, as we know, are the first-ever attempt to large-scale benchmarks with a vast collection of exhaustively annotated instances tailored for multi-category SOD. Finally, we evaluate the performance of mainstream methods on SODA. We expect the released benchmarks could facilitate the development of SOD and spawn more breakthroughs in this field. Datasets and codes will be available soon at: \url{https://shaunyuan22.github.io/SODA}.
arxiv情報
著者 | Gong Cheng,Xiang Yuan,Xiwen Yao,Kebing Yan,Qinghua Zeng,Junwei Han |
発行日 | 2022-07-28 14:02:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google