VORTEX: A Spatial Computing Framework for Optimized Drone Telemetry Extraction from First-Person View Flight Data

要約

この論文では、一人称視点 (FPV) 無人航空システム (UAS) 映像からドローン テレメトリ データを抽出して分析するための Visual Optical Recognition Telemetry EXtraction (VORTEX) システムについて説明します。
VORTEX は、PyTorch ベースの光学式文字認識 (OCR) ツールボックスである MMOCR を採用し、CLAHE エンハンスメントや適応しきい値処理などの高度な画像前処理技術を利用して、ドローンのヘッドアップ ディスプレイ (HUD) 記録からテレメトリ変数を抽出します。
この研究では、時間サンプリング レート (1 秒、5 秒、10 秒、15 秒、20 秒) と座標処理方法の系統的な調査を通じて、空間精度と計算効率を最適化します。
結果は、利用可能なフレームの 4.07% を利用する 5 秒のサンプリング レートが、計算オーバーヘッドを 80.5% 削減しながら、64% のポイント保持率と 1 秒のベースラインの 4.2% 以内の平均速度精度という最適なバランスを提供することを示しています。
座標処理方法の比較分析により、UTM ゾーン 33N 投影法とハーバーサイン計算では一貫して同様の結果 (差分 0.1% 以内) が得られる一方で、生の WGS84 座標は距離を 15 ~ 30%、速度を 20 ~ 35% 過小評価していることが明らかになりました。
高度測定では、サンプリング レートの変動に対する予想外の回復力が示され、すべての間隔にわたってわずか 2.1% の変動しかありませんでした。
この研究はこの種のものとしては初めてであり、オープンソース ツールと空間ライブラリを使用してドローン テレメトリの抽出と分析のための堅牢なフレームワークを確立するための定量的なベンチマークを提供します。

要約(オリジナル)

This paper presents the Visual Optical Recognition Telemetry EXtraction (VORTEX) system for extracting and analyzing drone telemetry data from First Person View (FPV) Uncrewed Aerial System (UAS) footage. VORTEX employs MMOCR, a PyTorch-based Optical Character Recognition (OCR) toolbox, to extract telemetry variables from drone Heads Up Display (HUD) recordings, utilizing advanced image preprocessing techniques, including CLAHE enhancement and adaptive thresholding. The study optimizes spatial accuracy and computational efficiency through systematic investigation of temporal sampling rates (1s, 5s, 10s, 15s, 20s) and coordinate processing methods. Results demonstrate that the 5-second sampling rate, utilizing 4.07% of available frames, provides the optimal balance with a point retention rate of 64% and mean speed accuracy within 4.2% of the 1-second baseline while reducing computational overhead by 80.5%. Comparative analysis of coordinate processing methods reveals that while UTM Zone 33N projection and Haversine calculations provide consistently similar results (within 0.1% difference), raw WGS84 coordinates underestimate distances by 15-30% and speeds by 20-35%. Altitude measurements showed unexpected resilience to sampling rate variations, with only 2.1% variation across all intervals. This research is the first of its kind, providing quantitative benchmarks for establishing a robust framework for drone telemetry extraction and analysis using open-source tools and spatial libraries.

arxiv情報

著者 James E. Gallagher,Edward J. Oughton
発行日 2024-12-24 15:43:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク