Hardware Acceleration for Real-Time Wildfire Detection Onboard Drone Networks

要約

荒廃を最小限に抑え、生態系を保護するには、遠隔地や森林地域での山火事を早期に発見することが重要です。
自律型ドローンは、高い時間分解能と詳細な空間分解能の両方を実現する高度な画像技術を備え、遠隔地の困難な地形への機敏なアクセスを提供し、山火事の早期発見と監視において貴重な資産となります。
ただし、無人航空機 (UAV) の計算能力とバッテリー リソースは限られているため、堅牢で効率的な画像分類モデルを実装するには大きな課題が生じます。
この分野の現在の作品はオフラインで動作することが多く、UAV の制約を考慮するとリアルタイムで推論を実行できるソリューションの必要性が強調されています。
これらの課題に対処するために、この論文はリアルタイムの画像分類および火災セグメンテーション モデルを開発することを目的としています。
Jetson Nano P3450 を使用したハードウェア アクセラレーションと、火災分類の精度と速度に対する NVIDIA の高性能ディープラーニング推論ライブラリである TensorRT の影響についての包括的な調査を紹介します。
この調査には、量子化認識トレーニング (QAT)、自動混合精度 (AMP)、トレーニング後のメカニズムの実装が含まれており、火災のセグメント化と分類の最新のベースラインと比較しています。
すべての実験では、所定の森林火災中に低空ドローンによって収集された画像データセットである FLAME データセットを利用します。
この取り組みは、UAV のリアルタイムのオンボード山火事検知機能を有効にし、これらの重要な監視システムの速度と計算量およびエネルギーの制約に対処するための継続的な取り組みに貢献します。
結果は、ハードウェア最適化を行わない同様のモデルと比較して、分類速度が 13% 向上したことを示しています。
比較的、損失と精度は元の値の 1.225% 以内です。

要約(オリジナル)

Early wildfire detection in remote and forest areas is crucial for minimizing devastation and preserving ecosystems. Autonomous drones offer agile access to remote, challenging terrains, equipped with advanced imaging technology that delivers both high-temporal and detailed spatial resolution, making them valuable assets in the early detection and monitoring of wildfires. However, the limited computation and battery resources of Unmanned Aerial Vehicles (UAVs) pose significant challenges in implementing robust and efficient image classification models. Current works in this domain often operate offline, emphasizing the need for solutions that can perform inference in real time, given the constraints of UAVs. To address these challenges, this paper aims to develop a real-time image classification and fire segmentation model. It presents a comprehensive investigation into hardware acceleration using the Jetson Nano P3450 and the implications of TensorRT, NVIDIA’s high-performance deep-learning inference library, on fire classification accuracy and speed. The study includes implementations of Quantization Aware Training (QAT), Automatic Mixed Precision (AMP), and post-training mechanisms, comparing them against the latest baselines for fire segmentation and classification. All experiments utilize the FLAME dataset – an image dataset collected by low-altitude drones during a prescribed forest fire. This work contributes to the ongoing efforts to enable real-time, on-board wildfire detection capabilities for UAVs, addressing speed and the computational and energy constraints of these crucial monitoring systems. The results show a 13% increase in classification speed compared to similar models without hardware optimization. Comparatively, loss and accuracy are within 1.225% of the original values.

arxiv情報

著者 Austin Briley,Fatemeh Afghah
発行日 2024-01-16 04:16:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, eess.IV パーマリンク