Monocular UAV Localisation with Deep Learning and Uncertainty Propagation

要約

この論文では、UAV の下面に取り付けられた LED マーカーを検出して位置を特定する、地上ベースの単眼 UAV 位置特定システムを提案します。
当社のシステムは、GPS が拒否された環境での位置特定によく使用される UWB、無線周波数、マルチカメラ システムなどの既存のテクノロジーとは異なり、大規模なインフラストラクチャや校正の必要性を排除します。
広範な実際のデータセットを収集する必要なく、現実世界のアプリケーションの展開可能性を向上させるために、既存の単眼 UAV 位置特定方法で実際の画像を使用するのではなく、合成バイナリ画像で CNN をトレーニングし、飛行する UAV の追跡を可能にするためにカメラのズームを考慮します。
さらに離れた場所でも。
実際の画像から処理されたバイナリ画像をシミュレートするために、合成バイナリ画像を拡張するための NoisyCutout アルゴリズムを提案し、既存の塩胡椒拡張法や Cutout 拡張法を使用する場合と比較して、位置特定精度が向上することを示します。
また、不確実性伝播を利用して CNN の損失関数を変更し、これによって位置特定の精度も向上することを示します。
私たちの方法を評価するために実際の実験が行われ、全体的な 3D RMSE は約 0.41m を達成しました。

要約(オリジナル)

In this paper, we propose a ground-based monocular UAV localisation system that detects and localises an LED marker attached to the underside of a UAV. Our system removes the need for extensive infrastructure and calibration unlike existing technologies such as UWB, radio frequency and multi-camera systems often used for localisation in GPS-denied environment. To improve deployablity for real-world applications without the need to collect extensive real dataset, we train a CNN on synthetic binary images as opposed to using real images in existing monocular UAV localisation methods, and factor in the camera’s zoom to allow tracking of UAVs flying at further distances. We propose NoisyCutout algorithm for augmenting synthetic binary images to simulate binary images processed from real images and show that it improves localisation accuracy as compared to using existing salt-and-pepper and Cutout augmentation methods. We also leverage uncertainty propagation to modify the CNN’s loss function and show that this also improves localisation accuracy. Real-world experiments are conducted to evaluate our methods and we achieve an overall 3D RMSE of approximately 0.41m.

arxiv情報

著者 Xueyan Oh,Ryan Lim,Leonard Loh,Chee How Tan,Shaohui Foong,U-Xuan Tan
発行日 2023-11-06 06:39:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク