Aerial View Goal Localization with Reinforcement Learning

要約

近年、無人航空機(UAV)や人工衛星などのリモートセンシング機器の普及に伴い、空撮データに対するコンピュータビジョン技術の利用が拡大しています。このような技術の応用の一つとして、自然災害などで行方不明となった1人または数人の位置を特定し、救助する捜索救助(SAR)業務があります。多くの場合、大まかな位置は分かっているので、UAVを投入して限られたエリアを探索し、行方不明者の位置を正確に特定することができます。時間やバッテリーの制約から、できるだけ効率的に位置を特定することが重要です。本研究では、この種の問題を、実際のUAVにアクセスすることなく、SARのようなセットアップをエミュレートするフレームワークで、空中ビューのゴール定位タスクとして抽象化することにより、アプローチする。このフレームワークでは、エージェントは空撮画像(探索領域の代理)の上で動作し、視覚的手がかりで記述された目標をローカライズするタスクを与えられる。実際のUAVの状況をさらに模倣するために、エージェントは低解像度であっても探索領域の全体を観測することができないため、ゴールに向かってナビゲートする際には部分的に垣間見える情報のみに基づいて動作しなければならない。この課題に取り組むため、我々は、探索(遠くの目標を探す)と探査(近くの目標を見つける)を切り離した強化学習(RL)ベースのモデルであるAiRLocを提案する。AiRLocは、ヒューリスティック探索手法や他の学習可能なアプローチを凌駕することが、広範な評価により示されている。また、概念実証の結果、学習可能な手法は平均して人間よりも優れていることが示された。コードは一般に公開されています: https://github.com/aleksispi/airloc.

要約(オリジナル)

With an increased amount and availability of unmanned aerial vehicles (UAVs) and other remote sensing devices (e.g. satellites), we have recently seen a vast increase in computer vision methods for aerial view data. One application of such technologies is within search-and-rescue (SAR), where the task is to localize and assist one or several people who are missing, for example after a natural disaster. In many cases the rough location may be known and a UAV can be deployed to explore a given, confined area to precisely localize the missing people. Due to time and battery constraints it is often critical that localization is performed as efficiently as possible. In this work, we approach this type of problem by abstracting it as an aerial view goal localization task in a framework that emulates a SAR-like setup without requiring access to actual UAVs. In this framework, an agent operates on top of an aerial image (proxy for a search area) and is tasked with localizing a goal that is described in terms of visual cues. To further mimic the situation on an actual UAV, the agent is not able to observe the search area in its entirety, not even at low resolution, and thus it has to operate solely based on partial glimpses when navigating towards the goal. To tackle this task, we propose AiRLoc, a reinforcement learning (RL)-based model that decouples exploration (searching for distant goals) and exploitation (localizing nearby goals). Extensive evaluations show that AiRLoc outperforms heuristic search methods as well as alternative learnable approaches. We also conduct a proof-of-concept study which indicates that the learnable methods outperform humans on average. Code has been made publicly available: https://github.com/aleksispi/airloc.

arxiv情報

著者 Aleksis Pirinen,Anton Samuelsson,John Backsund,Kalle Åström
発行日 2022-09-08 10:27:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク