Accelerating Non-Maximum Suppression: A Graph Theory Perspective

要約

非最大抑制 (NMS) は、物体検出において不可欠な後処理ステップです。
ネットワーク モデルの継続的な最適化により、NMS は物体検出の効率を高める「ラスト マイル」になりました。
この論文は、グラフ理論の観点から初めて NMS を系統的に分析し、その本質的な構造を明らかにします。
したがって、我々は、QSI-NMS と BOE-NMS という 2 つの最適化手法を提案します。
前者は、mAP 損失が無視できる高速再帰的分割統治アルゴリズムであり、その拡張バージョン (eQSI-NMS) は $\mathcal{O}(n\log n)$ の最適な複雑さを実現します。
後者は、NMS の局所性に焦点を当てており、mAP 損失ペナルティなしで一定レベルの最適化を達成します。
さらに、研究者による NMS 手法の迅速な評価を容易にするために、さまざまな NMS 手法を包括的に評価するために設計された初のベンチマークである NMS-Bench を紹介します。
MS COCO 2017 の YOLOv8-N モデルをベンチマーク設定として採用すると、私たちのメソッド QSI-NMS は、ベンチマークで元の NMS の $6.2\time$ の速度を実現し、mAP は $0.1\%$ 減少します。
最適な eQSI-NMS は、mAP がわずか $0.3\%$ 減少するだけで、$10.7\times$ の速度を達成します。
一方、BOE-NMS は、mAP に妥協がなく、$5.1\times$ の速度を示します。

要約(オリジナル)

Non-maximum suppression (NMS) is an indispensable post-processing step in object detection. With the continuous optimization of network models, NMS has become the “last mile” to enhance the efficiency of object detection. This paper systematically analyzes NMS from a graph theory perspective for the first time, revealing its intrinsic structure. Consequently, we propose two optimization methods, namely QSI-NMS and BOE-NMS. The former is a fast recursive divide-and-conquer algorithm with negligible mAP loss, and its extended version (eQSI-NMS) achieves optimal complexity of $\mathcal{O}(n\log n)$. The latter, concentrating on the locality of NMS, achieves an optimization at a constant level without an mAP loss penalty. Moreover, to facilitate rapid evaluation of NMS methods for researchers, we introduce NMS-Bench, the first benchmark designed to comprehensively assess various NMS methods. Taking the YOLOv8-N model on MS COCO 2017 as the benchmark setup, our method QSI-NMS provides $6.2\times$ speed of original NMS on the benchmark, with a $0.1\%$ decrease in mAP. The optimal eQSI-NMS, with only a $0.3\%$ mAP decrease, achieves $10.7\times$ speed. Meanwhile, BOE-NMS exhibits $5.1\times$ speed with no compromise in mAP.

arxiv情報

著者 King-Siong Si,Lu Sun,Weizhan Zhang,Tieliang Gong,Jiahao Wang,Jiang Liu,Hao Sun
発行日 2024-09-30 17:20:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク