Light-YOLOv5: A Lightweight Algorithm for Improved YOLOv5 in Complex Fire Scenarios

要約

既存のオブジェクト検出アルゴリズムは、検出精度が低く、速度が遅く、展開が困難な複雑な火災シナリオに適用されています。
まず、バックボーン ネットワークの最後の層を SepViT ブロックに置き換えて、バックボーン ネットワークとグローバル情報との接続を強化します。
次に、Light-BiFPN ネック ネットワークは、特徴抽出を改善しながらモデルを軽量化するように設計されています。
3 番目に、Global Attention Mechanism (GAM) がネットワークに融合され、モデルがよりグローバルな次元の特徴に焦点を当てたものになります。
最後に、Mish アクティベーション関数と SIOU 損失を使用して、収束速度を上げ、同時に精度を向上させます。
実験結果は、Light-YOLOv5 が元のアルゴリズムと比較して mAP を 3.3% 改善し、パラメーターの数を 27.1% 削減し、計算を 19.1% 削減し、91.1 の FPS を達成することを示しています。
最新のYOLOv7-tinyと比較しても、Light-YOLOv5のmAPは6.8%高く、アルゴリズムの有効性を示しています。

要約(オリジナル)

In response to the existing object detection algorithms are applied to complex fire scenarios with poor detection accuracy, slow speed and difficult deployment., this paper proposes a lightweight fire detection algorithm of Light-YOLOv5 that achieves a balance of speed and accuracy. First, the last layer of backbone network is replaced with SepViT Block to enhance the contact of backbone network to global information; second, a Light-BiFPN neck network is designed to lighten the model while improving the feature extraction; third, Global Attention Mechanism (GAM) is fused into the network to make the model more focused on global dimensional features; finally, we use the Mish activation function and SIoU loss to increase the convergence speed and improve the accuracy at the same time. The experimental results show that Light-YOLOv5 improves mAP by 3.3% compared to the original algorithm, reduces the number of parameters by 27.1%, decreases the computation by 19.1%, achieves FPS of 91.1. Even compared to the latest YOLOv7-tiny, the mAP of Light-YOLOv5 is 6.8% higher, which shows the effectiveness of the algorithm.

arxiv情報

著者 Hao Xu,Bo Li,Fei Zhong
発行日 2022-08-29 08:36:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク