Combining Local and Global Perception for Autonomous Navigation on Nano-UAVs

要約

無人航空機 (UAV) を自律タスクに導入する際の重要な課題は、未知の環境でのナビゲーション能力です。
この論文では、ナノ UAV での自律ナビゲーションのための新しい視覚と深度の融合アプローチを紹介します。
私たちは、セマンティック情報抽出のための視覚ベースの PULP-Dronet 畳み込みニューラル ネットワーク (つまり、グローバルな知覚として機能) を、近接操作 (つまり、ローカルな知覚) のための 8×8 ピクセルの深度マップと組み合わせます。
現場でテストした場合、当社の統合戦略は、視覚情報と深度感覚情報の両方の補完的な長所を強調します。
直線経路、静​​的な障害物回避、90{\deg} 回転などの複雑なナビゲーション シナリオで、15 回のフライトで 100% の成功率を達成しました。

要約(オリジナル)

A critical challenge in deploying unmanned aerial vehicles (UAVs) for autonomous tasks is their ability to navigate in an unknown environment. This paper introduces a novel vision-depth fusion approach for autonomous navigation on nano-UAVs. We combine the visual-based PULP-Dronet convolutional neural network for semantic information extraction, i.e., serving as the global perception, with 8x8px depth maps for close-proximity maneuvers, i.e., the local perception. When tested in-field, our integration strategy highlights the complementary strengths of both visual and depth sensory information. We achieve a 100% success rate over 15 flights in a complex navigation scenario, encompassing straight pathways, static obstacle avoidance, and 90{\deg} turns.

arxiv情報

著者 Lorenzo Lamberti,Georg Rutishauser,Francesco Conti,Luca Benini
発行日 2024-03-18 11:04:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク