要約
ドローン画像におけるリアルタイムの野生生物検出は、重要な生態学的モニタリングや保全モニタリングをサポートする。しかし、YOLOのような標準的な検出モデルは、しばしば場所を超えて一般化できず、希少種との闘いに苦戦するため、自動化されたドローン配備での使用が制限される。我々は、3つのサイト(ケニアのOl Pejeta ConservancyとMpala Research Centre、オハイオ州のThe Wilds)で収集された、6つの種(シマウマ、キリン、オナガザル、アフリカンワイルドドッグ)を対象とした、新しいマルチ環境、マルチ種、低高度のドローンデータセットであるMMLAを発表する。このデータセットには、37本の高解像度ビデオからの811Kアノテーションが含まれている。ベースラインのYOLOモデルは、場所によって性能に差が見られる一方、MMLA上でYOLOv11mを微調整することで、mAP50はベースラインより52ポイント向上し、82%に改善した。この結果は、自律型ドローンシステムにおいてロバストな動物検出を可能にするためには、多様なトレーニングデータが必要であることを強調している。
要約(オリジナル)
Real-time wildlife detection in drone imagery supports critical ecological and conservation monitoring. However, standard detection models like YOLO often fail to generalize across locations and struggle with rare species, limiting their use in automated drone deployments. We present MMLA, a novel multi-environment, multi-species, low-altitude drone dataset collected across three sites (Ol Pejeta Conservancy and Mpala Research Centre in Kenya, and The Wilds in Ohio), featuring six species (zebras, giraffes, onagers, and African wild dogs). The dataset contains 811K annotations from 37 high-resolution videos. Baseline YOLO models show performance disparities across locations while fine-tuning YOLOv11m on MMLA improves mAP50 to 82%, a 52-point gain over baseline. Our results underscore the need for diverse training data to enable robust animal detection in autonomous drone systems.
arxiv情報
著者 | Jenna Kline,Samuel Stevens,Guy Maalouf,Camille Rondeau Saint-Jean,Dat Nguyen Ngoc,Majid Mirmehdi,David Guerin,Tilo Burghardt,Elzbieta Pastucha,Blair Costelloe,Matthew Watson,Thomas Richardson,Ulrik Pagh Schultz Lundquist |
発行日 | 2025-06-03 15:13:53+00:00 |
arxivサイト | arxiv_id(pdf) |