Deep Reinforcement Learning for Time-Critical Wilderness Search And Rescue Using Drones

要約

荒野での従来の捜索救助方法は時間がかかり、対応範囲も限られています。
ドローンはより高速で柔軟なソリューションを提供しますが、その探索パスを最適化することが重要です。
この論文では、荒野環境におけるドローンの効率的な捜索ミッションを作成するための深層強化学習の使用について検討します。
私たちのアプローチは、確率分布マップの形で捜索エリアと行方不明者に関する先験的なデータを活用します。
これにより、深層強化学習エージェントは、行方不明者を迅速に発見する確率を最大化する最適な飛行経路を学習できるようになります。
実験結果は、私たちの方法が従来のカバレッジ計画および検索計画アルゴリズムと比較して検索時間の大幅な改善を達成することを示しています。
ある比較では、深層強化学習は他のアルゴリズムよりも $160\%$ 以上優れていることがわかり、この差は現実世界の検索操作において生死を分ける可能性があります。
さらに、以前の作品とは異なり、私たちのアプローチには立方体によって可能になる連続的なアクション空間が組み込まれており、より微妙な飛行パターンが可能になります。

要約(オリジナル)

Traditional search and rescue methods in wilderness areas can be time-consuming and have limited coverage. Drones offer a faster and more flexible solution, but optimizing their search paths is crucial. This paper explores the use of deep reinforcement learning to create efficient search missions for drones in wilderness environments. Our approach leverages a priori data about the search area and the missing person in the form of a probability distribution map. This allows the deep reinforcement learning agent to learn optimal flight paths that maximize the probability of finding the missing person quickly. Experimental results show that our method achieves a significant improvement in search times compared to traditional coverage planning and search planning algorithms. In one comparison, deep reinforcement learning is found to outperform other algorithms by over $160\%$, a difference that can mean life or death in real-world search operations. Additionally, unlike previous work, our approach incorporates a continuous action space enabled by cubature, allowing for more nuanced flight patterns.

arxiv情報

著者 Jan-Hendrik Ewers,David Anderson,Douglas Thomson
発行日 2024-05-22 14:52:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY パーマリンク