要約
2 段階検出器は、物体検出と歩行者検出の最先端技術です。
ただし、現在の 2 段階検出器は、領域提案ネットワークと境界ボックス ヘッドなど、複数のステップで境界ボックス回帰を行うため、非効率的です。
また、アンカーベースの領域提案ネットワークは、トレーニングに計算コストがかかります。
領域提案ネットワークを焦点検出ネットワークに置き換え、バウンディングボックスヘッドを高速サプレッションヘッドに置き換えることにより、現在の2段階検出器の冗長性を排除する新しい2段階検出アーキテクチャであるF2DNetを提案します。
トップの歩行者検出データセットで F2DNet のベンチマークを行い、既存の最先端の検出器と徹底的に比較し、クロス データセット評価を実施して、目に見えないデータに対するモデルの一般化可能性をテストします。
私たちの F2DNet は、単一のデータセットでトレーニングした場合、City Persons、Caltech Pedestrian、および Euro City Person データセットでそれぞれ 8.7\%、2.2\%、および 6.1\% MR-2 を達成し、20.4\% および 26.2\% MR-2 に達します。
プログレッシブ微調整を使用する場合の Caltech Pedestrian および City Persons データセットの重いオクルージョン設定。
さらに、F2DNet は、現在の最先端技術と比較して、推論時間が大幅に短縮されています。
コードとトレーニング済みモデルは、https://github.com/AbdulHannanKhan/F2DNet で入手できます。
要約(オリジナル)
Two-stage detectors are state-of-the-art in object detection as well as pedestrian detection. However, the current two-stage detectors are inefficient as they do bounding box regression in multiple steps i.e. in region proposal networks and bounding box heads. Also, the anchor-based region proposal networks are computationally expensive to train. We propose F2DNet, a novel two-stage detection architecture which eliminates redundancy of current two-stage detectors by replacing the region proposal network with our focal detection network and bounding box head with our fast suppression head. We benchmark F2DNet on top pedestrian detection datasets, thoroughly compare it against the existing state-of-the-art detectors and conduct cross dataset evaluation to test the generalizability of our model to unseen data. Our F2DNet achieves 8.7\%, 2.2\%, and 6.1\% MR-2 on City Persons, Caltech Pedestrian, and Euro City Person datasets respectively when trained on a single dataset and reaches 20.4\% and 26.2\% MR-2 in heavy occlusion setting of Caltech Pedestrian and City Persons datasets when using progressive fine-tunning. Furthermore, F2DNet have significantly lesser inference time compared to the current state-of-the-art. Code and trained models will be available at https://github.com/AbdulHannanKhan/F2DNet.
arxiv情報
著者 | Abdul Hannan Khan,Mohsin Munir,Ludger van Elst,Andreas Dengel |
発行日 | 2022-09-23 08:43:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google