要約
このホワイト ペーパーでは、エッジ コンピューティング プラットフォームでリアルタイムに実装できる最先端の YOLO フレームワークに基づく、効率的で複雑性が低く、アンカーのないオブジェクト検出器を提案します。
トレーニング中の過剰適合を効果的に抑制するための強化されたデータ拡張方法を開発し、小さなオブジェクトの検出精度を向上させるためのハイブリッド ランダム損失関数を設計します。
FCOS に着想を得て、より軽量で効率的なデカップリング ヘッドが提案され、精度をほとんど損なうことなく推論速度を向上させることができます。
当社のベースライン モデルは、MS COCO2017 データセットで 50.6% AP50:95 および 69.8% AP50、VisDrone2019-DET データセットで 26.4% AP50:95 および 44.8% AP50 の精度に達し、リアルタイム要件 (FPS>=30) を満たしています。
エッジ コンピューティング デバイス Nvidia Jetson AGX Xavier で。
また、コンピューティング能力が低いエッジ コンピューティング デバイス用に、パラメータを減らして軽量化したモデルも設計しましたが、これも優れたパフォーマンスを示しています。
ソース コード、ハイパー パラメーター、モデルの重みはすべて https://github.com/LSH9832/edgeyolo で入手できます。
要約(オリジナル)
This paper proposes an efficient, low-complexity and anchor-free object detector based on the state-of-the-art YOLO framework, which can be implemented in real time on edge computing platforms. We develop an enhanced data augmentation method to effectively suppress overfitting during training, and design a hybrid random loss function to improve the detection accuracy of small objects. Inspired by FCOS, a lighter and more efficient decoupled head is proposed, and its inference speed can be improved with little loss of precision. Our baseline model can reach the accuracy of 50.6% AP50:95 and 69.8% AP50 in MS COCO2017 dataset, 26.4% AP50:95 and 44.8% AP50 in VisDrone2019-DET dataset, and it meets real-time requirements (FPS>=30) on edge-computing device Nvidia Jetson AGX Xavier. We also designed lighter models with less parameters for edge computing devices with lower computing power, which also show better performances. Our source code, hyper-parameters and model weights are all available at https://github.com/LSH9832/edgeyolo.
arxiv情報
著者 | Shihan Liu,Junlin Zha,Jian Sun,Zhuo Li,Gang Wang |
発行日 | 2023-02-15 06:05:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google