要約
この作業は、mAP とレイテンシの点で優れたパフォーマンスを発揮する 1 段階の軽量検出器を設計するためのものです。
GPU と CPU をそれぞれ対象とするベースライン モデルでは、ベースライン モデルのバックボーン ネットワークでの主要な操作の代わりに、さまざまな操作が適用されます。
バックボーン ネットワークと運用に関する実験に加えて、いくつかのフィーチャ ピラミッド ネットワーク (FPN) アーキテクチャが調査されています。
ベンチマークと提案された検出器は、オブジェクト検出のベンチマーク データセットである MS COCO データセットで、パラメータ数、Gflops、GPU レイテンシ、CPU レイテンシ、および mAP の観点から分析されます。
この作業では、精度とレイテンシのトレードオフを考慮して、同様またはより優れたネットワーク アーキテクチャを提案します。
たとえば、提案した GPU ターゲット バックボーン ネットワークは、NVIDIA GeForce RTX 2080 Ti GPU で、ベンチマークとして選択された YOLOX-tiny の速度で 1.43 倍、精度で 0.5 mAP を上回っています。
要約(オリジナル)
This work is for designing one-stage lightweight detectors which perform well in terms of mAP and latency. With baseline models each of which targets on GPU and CPU respectively, various operations are applied instead of the main operations in backbone networks of baseline models. In addition to experiments about backbone networks and operations, several feature pyramid network (FPN) architectures are investigated. Benchmarks and proposed detectors are analyzed in terms of the number of parameters, Gflops, GPU latency, CPU latency and mAP, on MS COCO dataset which is a benchmark dataset in object detection. This work propose similar or better network architectures considering the trade-off between accuracy and latency. For example, our proposed GPU-target backbone network outperforms that of YOLOX-tiny which is selected as the benchmark by 1.43x in speed and 0.5 mAP in accuracy on NVIDIA GeForce RTX 2080 Ti GPU.
arxiv情報
著者 | Deokki Hong |
発行日 | 2022-10-31 09:02:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google