要約
ドローンは、精密な農業におけるデータ収集に有望ですが、バッテリー容量によって制限されています。
したがって、効率的なパスプランナーが必要です。
このホワイトペーパーでは、オブジェクトの検出と不確実な事前知識を使用する抽象シミュレーションで、強化学習(RL)を使用してトレーニングされたドローンパスプランナーを紹介します。
RLエージェントは飛行方向を制御し、飛行を終了できます。
ドローンの飛行コントローラーとカメラ画像を処理するための検出ネットワークと組み合わせてエージェントを使用することにより、実際のデータでエージェントのパフォーマンスを評価することができます。
シミュレーションでは、エージェントは、完全なカバレッジプランナーと比較して平均78%短い飛行経路を獲得し、リコールが14%低くなりました。
現実世界のデータでは、エージェントは完全なカバレッジプランナーと比較して72%の短い飛行経路を示しましたが、リコールが25%低くなりました。
実際のデータのパフォーマンスの低下は、実際のオブジェクト分布と事前知識の精度が低いことに起因し、改善の可能性を示しています。
全体として、雑草検出などのすべてのオブジェクトを見つけることが重要ではないアプリケーションの場合、学習ベースのパスプランナーは適切かつ効率的であると結論付けました。
要約(オリジナル)
Drones are promising for data collection in precision agriculture, however, they are limited by their battery capacity. Efficient path planners are therefore required. This paper presents a drone path planner trained using Reinforcement Learning (RL) on an abstract simulation that uses object detections and uncertain prior knowledge. The RL agent controls the flight direction and can terminate the flight. By using the agent in combination with the drone’s flight controller and a detection network to process camera images, it is possible to evaluate the performance of the agent on real-world data. In simulation, the agent yielded on average a 78% shorter flight path compared to a full coverage planner, at the cost of a 14% lower recall. On real-world data, the agent showed a 72% shorter flight path compared to a full coverage planner, however, at the cost of a 25% lower recall. The lower performance on real-world data was attributed to the real-world object distribution and the lower accuracy of prior knowledge, and shows potential for improvement. Overall, we concluded that for applications where it is not crucial to find all objects, such as weed detection, the learned-based path planner is suitable and efficient.
arxiv情報
著者 | Rick van Essen,Gert Kootstra |
発行日 | 2025-05-14 10:59:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google