要約
正確でリアルタイムのオブジェクトの検出は、特にハードウェアの制限によって制約されるシナリオでは、検出性能を向上させるために精度と速度のバランスをとるシナリオで重要です。
この研究では、HGO-YOLOと呼ばれるモデルを提案し、HGNETV2アーキテクチャをYolov8に統合します。
この組み合わせは、受容フィールドを拡張し、幅広い機能をキャプチャし、GhostConvを通じてモデルの複雑さを簡素化します。
パラメーター共有を利用して検出ヘッドを効果的に構築する軽量検出ヘッドであるOpticOnvDetectを導入しました。
評価の結果は、提案されたアルゴリズムが87.4%のMAP@0.5と81.1%のリコール率を達成し、モデルサイズは4.6 MBのみ、CPUで56 FPSのフレームレートを達成していることを示しています。
HGO-Yoloは精度を3.0%向上させるだけでなく、計算負荷を51.69%(8.9 GFLOPSから4.3 GFLOPSに)減少させ、フレームレートを1.7倍に増加させます。
さらに、Raspberry PI4およびNvidiaプラットフォームでリアルタイムテストが実施されました。
これらの結果は、HGOヨーロモデルが異常な行動検出において優れた性能を示していることを示しています。
要約(オリジナル)
Accurate and real-time object detection is crucial for anomaly behavior detection, especially in scenarios constrained by hardware limitations, where balancing accuracy and speed is essential for enhancing detection performance. This study proposes a model called HGO-YOLO, which integrates the HGNetv2 architecture into YOLOv8. This combination expands the receptive field and captures a wider range of features while simplifying model complexity through GhostConv. We introduced a lightweight detection head, OptiConvDetect, which utilizes parameter sharing to construct the detection head effectively. Evaluation results show that the proposed algorithm achieves a mAP@0.5 of 87.4% and a recall rate of 81.1%, with a model size of only 4.6 MB and a frame rate of 56 FPS on the CPU. HGO-YOLO not only improves accuracy by 3.0% but also reduces computational load by 51.69% (from 8.9 GFLOPs to 4.3 GFLOPs), while increasing the frame rate by a factor of 1.7. Additionally, real-time tests were conducted on Raspberry Pi4 and NVIDIA platforms. These results indicate that the HGO-YOLO model demonstrates superior performance in anomaly behavior detection.
arxiv情報
著者 | Qizhi Zheng,Zhongze Luo,Meiyan Guo,Xinzhu Wang,Renqimuge Wu,Qiu Meng,Guanghui Dong |
発行日 | 2025-03-10 14:29:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google