要約
AIと組み合わせたカメラトラップは、自動化されたスケーラブルな生物多様性監視を実現する方法として浮上しています。
ただし、カメラトラップをトリガーするパッシブ赤外線(PIR)センサーは、昆虫などの小さな動きのある外洋を検出するのに適していません。
昆虫はすべての動物種の半分以上を構成し、生態系と農業の重要な要素です。
適切でスケーラブルな昆虫カメラトラップの必要性は、昆虫集団の減少の報告を受けて重要です。
この研究では、PIRトリガーの代替手段を提案しています。低電力ハードウェアで実行されている超軽量畳み込み型畳み込みニューラルネットワークは、キャプチャされた画像の連続ストリームで昆虫を検出します。
昆虫の画像を背景と区別するために、一連のモデルを訓練します。
当社のデザインは、トリガーと画像キャプチャの間でゼロレイテンシを実現します。
私たちのモデルは厳密にテストされており、検証データで91.8%から96.4%のAUC、およびトレーニング中に見えない分布からのデータで87%を超えるAUCの範囲の高精度を達成します。
モデルの特異性が高いため、誤った陽性画像を最小限に抑え、展開ストレージ効率を最大化します。
高いリコールスコアは、最小の偽陰性率を示し、昆虫の検出を最大化します。
顕著性マップを使用したさらなる分析は、スプリアスな背景機能への依存度が低いため、モデルの学習された表現が堅牢であることを示しています。
また、私たちのシステムは、300MW未満の最大電力抽選を消費する、既製の低電力マイクロコントローラーユニットに展開された動作も示されています。
これにより、安価で容易に利用できるバッテリーコンポーネントを使用して、より長い展開時間が可能になります。
全体的に、昆虫モニタリングのコスト、効率、範囲のステップ変更を提供します。
挑戦的なトリガーの問題を解決すると、既存の設計や予算の電力と帯域幅よりもはるかに長く展開できるシステムを実証し、一般的な昆虫カメラトラップに向かって移動します。
要約(オリジナル)
Camera traps, combined with AI, have emerged as a way to achieve automated, scalable biodiversity monitoring. However, the passive infrared (PIR) sensors that trigger camera traps are poorly suited for detecting small, fast-moving ectotherms such as insects. Insects comprise over half of all animal species and are key components of ecosystems and agriculture. The need for an appropriate and scalable insect camera trap is critical in the wake of concerning reports of declines in insect populations. This study proposes an alternative to the PIR trigger: ultra-lightweight convolutional neural networks running on low-powered hardware to detect insects in a continuous stream of captured images. We train a suite of models to distinguish insect images from backgrounds. Our design achieves zero latency between trigger and image capture. Our models are rigorously tested and achieve high accuracy ranging from 91.8% to 96.4% AUC on validation data and >87% AUC on data from distributions unseen during training. The high specificity of our models ensures minimal saving of false positive images, maximising deployment storage efficiency. High recall scores indicate a minimal false negative rate, maximising insect detection. Further analysis with saliency maps shows the learned representation of our models to be robust, with low reliance on spurious background features. Our system is also shown to operate deployed on off-the-shelf, low-powered microcontroller units, consuming a maximum power draw of less than 300mW. This enables longer deployment times using cheap and readily available battery components. Overall we offer a step change in the cost, efficiency and scope of insect monitoring. Solving the challenging trigger problem, we demonstrate a system which can be deployed for far longer than existing designs and budgets power and bandwidth effectively, moving towards a generic insect camera trap.
arxiv情報
著者 | Ross Gardiner,Sareh Rowands,Benno I. Simmons |
発行日 | 2025-02-17 14:21:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google