要約
正確な相対的定位は、群ロボット工学にとって重要な機能ブロックである。本研究では、ディープニューラルネットワーク(DNN)を通じて、2つのピアナノドローン(重量40g以下、処理能力100mW以下)の単眼相対定位に取り組む、新しい自律型エンドツーエンドシステムを紹介します。超制約されたナノドローンプラットフォームに対応するため、データセット収集から最終的なフィールド内展開まで、データセットの増強、量子化、システムの最適化を含む垂直統合型フレームワークを提案します。実験の結果、我々のDNNは、低解像度のモノクロ画像のみを用いて、10cmサイズのターゲットナノドローンを2mの距離まで正確にローカライズできることが示された。また、テストデータセットにおいて、我々のモデルは平均R2スコア0.42、二乗平均平方根誤差18cmを示し、60秒間の飛行テストにおいて、平均フィールド内予測誤差15cm、閉ループ制御誤差17cmを達成しました。最終的に、提案システムは、長時間の追跡性能(最大2分間の連続追跡)、見たことのない環境で展開される汎化能力、48Hzのオンボードリアルタイム推論レートで95mWの最小消費電力を示し、最先端技術を向上させたと言えるでしょう。
要約(オリジナル)
Precise relative localization is a crucial functional block for swarm robotics. This work presents a novel autonomous end-to-end system that addresses the monocular relative localization, through deep neural networks (DNNs), of two peer nano-drones, i.e., sub-40g of weight and sub-100mW processing power. To cope with the ultra-constrained nano-drone platform, we propose a vertically-integrated framework, from the dataset collection to the final in-field deployment, including dataset augmentation, quantization, and system optimizations. Experimental results show that our DNN can precisely localize a 10cm-size target nano-drone by employing only low-resolution monochrome images, up to ~2m distance. On a disjoint testing dataset our model yields a mean R2 score of 0.42 and a root mean square error of 18cm, which results in a mean in-field prediction error of 15cm and in a closed-loop control error of 17cm, over a ~60s-flight test. Ultimately, the proposed system improves the State-of-the-Art by showing long-endurance tracking performance (up to 2min continuous tracking), generalization capabilities being deployed in a never-seen-before environment, and requiring a minimal power consumption of 95mW for an onboard real-time inference-rate of 48Hz.
arxiv情報
著者 | Stefano Bonato,Stefano Carlo Lambertenghi,Elia Cereda,Alessandro Giusti,Daniele Palossi |
発行日 | 2023-03-03 14:14:08+00:00 |
arxivサイト | arxiv_id(pdf) |