要約
ドローンやレーダーから取得した UAV (無人航空機) 画像による小型物体の検出は、いくつかの困難な課題を伴う複雑なタスクです。
この領域には、小さな物体の正確な検出と位置特定を妨げる多数の複雑さが含まれています。
これらの課題に対処するために、私たちは、このタスクのために特別に設計された共同損失関数を活用して、UAV が小さな物体を検出するための JointYODNet と呼ばれる新しい方法を提案します。
私たちの方法は、小さな物体の検出性能を向上させるために調整された結合損失関数の開発を中心に展開しています。
さまざまな環境条件下で撮影された UAV 画像の多様なデータセットに対する広範な実験を通じて、損失関数のさまざまなバリエーションを評価し、最も効果的な定式化を決定しました。
この結果は、私たちが提案した結合損失関数が、小さなオブジェクトの位置を正確に特定する点で既存の方法よりも優れていることを示しています。
具体的には、私たちの手法は再現率 0.971、F1Score 0.975 を達成しており、最先端の手法を上回っています。
さらに、私たちの方法は 98.6 の mAP@.5(%) を達成し、さまざまなスケールにわたる小さな物体を検出する際の堅牢性を示しています。
要約(オリジナル)
Small object detection via UAV (Unmanned Aerial Vehicle) images captured from drones and radar is a complex task with several formidable challenges. This domain encompasses numerous complexities that impede the accurate detection and localization of small objects. To address these challenges, we propose a novel method called JointYODNet for UAVs to detect small objects, leveraging a joint loss function specifically designed for this task. Our method revolves around the development of a joint loss function tailored to enhance the detection performance of small objects. Through extensive experimentation on a diverse dataset of UAV images captured under varying environmental conditions, we evaluated different variations of the loss function and determined the most effective formulation. The results demonstrate that our proposed joint loss function outperforms existing methods in accurately localizing small objects. Specifically, our method achieves a recall of 0.971, and a F1Score of 0.975, surpassing state-of-the-art techniques. Additionally, our method achieves a mAP@.5(%) of 98.6, indicating its robustness in detecting small objects across varying scales
arxiv情報
著者 | Vipin Gautam,Shitala Prasad,Sharad Sinha |
発行日 | 2023-09-27 16:57:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google