Toward Appearance-based Autonomous Landing Site Identification for Multirotor Drones in Unstructured Environments

要約

マルチロータードローン飛行における残りの課題は、構造化されていない環境で実行可能な着陸地点を自律的に識別することです。
この問題を解決する 1 つのアプローチは、ドローンの RGB 画像を安全な領域と安全でない領域にセグメント化できる、軽量の外観ベースの地形分類器を作成することです。
ただし、このような分類子には画像とマスクのデータ セットが必要で、作成に法外な費用がかかる可能性があります。
私たちは、最新のドローンの地形を自動的に測量する機能と、そのような測量から得られた地形モデルから着陸安全マスクを自動的に計算する機能を活用して、これらの分類器をトレーニングするための合成データセットを自動的に生成するパイプラインを提案します。
次に、合成データセットで U-Net をトレーニングし、検証のために実世界のデータでテストし、ドローン プラットフォームでリアルタイムにデモンストレーションします。

要約(オリジナル)

A remaining challenge in multirotor drone flight is the autonomous identification of viable landing sites in unstructured environments. One approach to solve this problem is to create lightweight, appearance-based terrain classifiers that can segment a drone’s RGB images into safe and unsafe regions. However, such classifiers require data sets of images and masks that can be prohibitively expensive to create. We propose a pipeline to automatically generate synthetic data sets to train these classifiers, leveraging modern drones’ ability to survey terrain automatically and the ability to automatically calculate landing safety masks from terrain models derived from such surveys. We then train a U-Net on the synthetic data set, test it on real-world data for validation, and demonstrate it on our drone platform in real-time.

arxiv情報

著者 Joshua Springer,Gylfi Þór Guðmundsson,Marcel Kyas
発行日 2024-12-20 01:48:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク