Learning UAV-based path planning for efficient localization of objects using prior knowledge

要約

UAV は農業におけるさまざまな物体検索アプリケーションで人気が高まっていますが、通常は時間のかかる列ごとの飛行経路を使用します。
この論文では、最小の飛行経路長の UAV を使用して対象オブジェクトの位置を効率的に特定するための経路計画のための深層強化学習方法を紹介します。
この方法では、オブジェクトの位置が不確かで解像度が限られているグローバルな事前知識を、オブジェクト検出ネットワークの出力を使用して作成されたローカル オブジェクト マップと組み合わせて使用​​します。
検索ポリシーは、ディープ Q ラーニングを使用して学習できます。
エージェントをシミュレーションでトレーニングし、オブジェクトの分布、認識システムと事前知識における典型的なエラー、およびさまざまな停止基準を徹底的に評価できるようにしました。
物体がフィールド上に不均一に分布している場合、エージェントは列ごとの飛行経路よりも早く物体を発見し、物体の分布を利用する方法を学習していることを示しました。
検出エラーと事前知識の質はパフォーマンスにわずかな影響しか与えず、学習された検索ポリシーが認識システムのエラーに対して堅牢であり、詳細な事前知識を必要としないことを示しています。
事前知識がなくても、学習されたポリシーのパフォーマンスは、列ごとの飛行経路と同等でした。
最後に、検索タスクを終了する適切な瞬間を学習できることを実証しました。
実際のドローンでの物体検索へのアプローチの適用可能性が包括的に議論され、評価されました。
全体的に、学習された検索ポリシーにより、UAV を使用した物体検索の効率が向上し、指定された前提条件が満たされれば現実世界の状況に適用できると結論付けられます。

要約(オリジナル)

UAV’s are becoming popular for various object search applications in agriculture, however they usually use time-consuming row-by-row flight paths. This paper presents a deep-reinforcement-learning method for path planning to efficiently localize objects of interest using UAVs with a minimal flight-path length. The method uses some global prior knowledge with uncertain object locations and limited resolution in combination with a local object map created using the output of an object detection network. The search policy could be learned using deep Q-learning. We trained the agent in simulation, allowing thorough evaluation of the object distribution, typical errors in the perception system and prior knowledge, and different stopping criteria. When objects were non-uniformly distributed over the field, the agent found the objects quicker than a row-by-row flight path, showing that it learns to exploit the distribution of objects. Detection errors and quality of prior knowledge had only minor effect on the performance, indicating that the learned search policy was robust to errors in the perception system and did not need detailed prior knowledge. Without prior knowledge, the learned policy was still comparable in performance to a row-by-row flight path. Finally, we demonstrated that it is possible to learn the appropriate moment to end the search task. The applicability of the approach for object search on a real drone was comprehensively discussed and evaluated. Overall, we conclude that the learned search policy increased the efficiency of finding objects using a UAV, and can be applied in real-world conditions when the specified assumptions are met.

arxiv情報

著者 Rick van Essen,Eldert van Henten,Gert Kootstra
発行日 2024-12-16 12:39:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク