Ensuring UAV Safety: A Vision-only and Real-time Framework for Collision Avoidance Through Object Detection, Tracking, and Distance Estimation

要約

過去 20 年間、無人航空機 (UAV) は軍事分野と民間分野の両方で用途が拡大しているため、関心が高まっています。
非協力的な航空機を効率的に検出し、衝突を正確に推定することは、完全自律型航空機を実現し、Advanced Air Mobility (AAM) を促進するために極めて重要です。
この論文では、非協調型航空機の検出、追跡、距離推定に光学センサーを利用する深層学習フレームワークを紹介します。
この包括的なセンシング フレームワークを実装する場合、自律航空機が障害物を認識して回避できるようにするには、深度情報の利用が不可欠です。
本研究では、単眼カメラの入力のみを用いて、検出した航空物体の距離情報をリアルタイムに推定する手法を提案する。
物体検出、追跡、深度推定タスク用の深層学習コンポーネントをトレーニングするために、Amazon Airborne Object Tracking (AOT) データセットを利用します。
奥行き推定モジュールを物体検出器に統合する以前のアプローチとは対照的に、私たちの方法は問題を画像間の変換として定式化します。
効率的かつ堅牢な深度推定のために、独立した軽量のエンコーダ/デコーダ ネットワークを採用しています。
簡単に言うと、物体検出モジュールは障害物を識別して位置を特定し、この情報を障害物の動きを監視する追跡モジュールと距離を計算する深さ推定モジュールの両方に伝えます。
私たちのアプローチは、(私たちの知る限りでは)最大の空対空飛行物体データセットである空中物体追跡 (AOT) データセットで評価されます。

要約(オリジナル)

In the last twenty years, unmanned aerial vehicles (UAVs) have garnered growing interest due to their expanding applications in both military and civilian domains. Detecting non-cooperative aerial vehicles with efficiency and estimating collisions accurately are pivotal for achieving fully autonomous aircraft and facilitating Advanced Air Mobility (AAM). This paper presents a deep-learning framework that utilizes optical sensors for the detection, tracking, and distance estimation of non-cooperative aerial vehicles. In implementing this comprehensive sensing framework, the availability of depth information is essential for enabling autonomous aerial vehicles to perceive and navigate around obstacles. In this work, we propose a method for estimating the distance information of a detected aerial object in real time using only the input of a monocular camera. In order to train our deep learning components for the object detection, tracking and depth estimation tasks we utilize the Amazon Airborne Object Tracking (AOT) Dataset. In contrast to previous approaches that integrate the depth estimation module into the object detector, our method formulates the problem as image-to-image translation. We employ a separate lightweight encoder-decoder network for efficient and robust depth estimation. In a nutshell, the object detection module identifies and localizes obstacles, conveying this information to both the tracking module for monitoring obstacle movement and the depth estimation module for calculating distances. Our approach is evaluated on the Airborne Object Tracking (AOT) dataset which is the largest (to the best of our knowledge) air-to-air airborne object dataset.

arxiv情報

著者 Vasileios Karampinis,Anastasios Arsenos,Orfeas Filippopoulos,Evangelos Petrongonas,Christos Skliros,Dimitrios Kollias,Stefanos Kollias,Athanasios Voulodimos
発行日 2024-05-16 14:24:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク