AIRA: A Low-cost IR-based Approach Towards Autonomous Precision Drone Landing and NLOS Indoor Navigation

要約

ドローンの自動着陸は、完全自律型ドローンを実現するための重要なステップです。
GPS、ビデオ、無線信号、アクティブ音響センシングを活用して正確な着陸を実行する作品は数多くありますが、手のひらサイズのマイクロドローンにとって自律的なドローン着陸は依然として未解決の課題であり、視覚、無線などの高度な計算要件をサポートできない可能性があります。
、またはアクティブオーディオセンシング。
私たちは、低資源のマイクロドローンの正確かつ効率的な着陸を目的とした、低コストの赤外線ベースのプラットフォームである AIRA を提案します。
AIRA は、着陸ステーションの赤外線電球と、ドローンの底部にあるエネルギー効率の高いハードウェア フォトダイオード (PD) センシング プラットフォームで構成されています。
AIRA のコストは 83 米ドル未満で、エネルギーコストの数分の 1 で既存のビジョンベースの手法と同等のパフォーマンスを達成します。
AIRA は、複雑なパターン認識モデルを必要とせず、3 つの PD のみを必要とし、最大 $11.1$ メートル離れた場所から $10$cm 未満の誤差でドローンを正確に着陸させることができます。これに比べて、範囲の高解像度画像を使用して複雑なマーカーを認識する必要があるカメラベースの方法と比較して、
同じ高さからわずか 1.2 ドルメートルまでです。
さらに、従来の視覚ベースのアプローチでは困難であった、低照度や部分的に見通し線にないシナリオでも、AIRA がドローンを正確に誘導できることを実証します。

要約(オリジナル)

Automatic drone landing is an important step for achieving fully autonomous drones. Although there are many works that leverage GPS, video, wireless signals, and active acoustic sensing to perform precise landing, autonomous drone landing remains an unsolved challenge for palm-sized microdrones that may not be able to support the high computational requirements of vision, wireless, or active audio sensing. We propose AIRA, a low-cost infrared light-based platform that targets precise and efficient landing of low-resource microdrones. AIRA consists of an infrared light bulb at the landing station along with an energy efficient hardware photodiode (PD) sensing platform at the bottom of the drone. AIRA costs under 83 USD, while achieving comparable performance to existing vision-based methods at a fraction of the energy cost. AIRA requires only three PDs without any complex pattern recognition models to accurately land the drone, under $10$cm of error, from up to $11.1$ meters away, compared to camera-based methods that require recognizing complex markers using high resolution images with a range of only up to $1.2$ meters from the same height. Moreover, we demonstrate that AIRA can accurately guide drones in low light and partial non line of sight scenarios, which are difficult for traditional vision-based approaches.

arxiv情報

著者 Yanchen Liu,Minghui Zhao,Kaiyuan Hou,Junxi Xia,Charlie Carver,Stephen Xia,Xia Zhou,Xiaofan Jiang
発行日 2024-07-08 05:15:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク