A Visual Active Search Framework for Geospatial Exploration

要約

多くの問題は、航空画像を利用した地理空間検索の一種とみなすことができ、その例は密猟行為の検出から人身売買まで多岐にわたります。
私たちは、このクラスの問題を Visual Active Search (VAS) フレームワークでモデル化します。VAS フレームワークには、次の 3 つの主要な入力があります: (1) 複数の領域に分割された検索領域全体の画像、(2) ローカル検索機能。
これまでに見たことのないオブジェクト クラスが特定の領域に存在すること、および (3) ローカル検索機能を評価できる回数を制限する固定の検索バジェット。
目標は、検索予算内で見つかるオブジェクトの数を最大化することです。
完全に注釈が付けられた検索タスクのコレクションからメタ検索ポリシーを学習する、VAS の強化学習アプローチを提案します。
このメタ検索ポリシーは、新しいターゲット オブジェクト クラスを動的に検索するために使用され、以前のクエリの結果を利用して次にどこにクエリを実行するかを決定します。
いくつかの大規模な衛星画像データセットに対する広範な実験を通じて、提案されたアプローチがいくつかの強力なベースラインを大幅に上回ることを示しました。
また、トレーニング データとの大きなドメイン ギャップがある場合に、決定時にポリシーを改善する新しいドメイン適応手法も提案します。
コードは公開されています。

要約(オリジナル)

Many problems can be viewed as forms of geospatial search aided by aerial imagery, with examples ranging from detecting poaching activity to human trafficking. We model this class of problems in a visual active search (VAS) framework, which has three key inputs: (1) an image of the entire search area, which is subdivided into regions, (2) a local search function, which determines whether a previously unseen object class is present in a given region, and (3) a fixed search budget, which limits the number of times the local search function can be evaluated. The goal is to maximize the number of objects found within the search budget. We propose a reinforcement learning approach for VAS that learns a meta-search policy from a collection of fully annotated search tasks. This meta-search policy is then used to dynamically search for a novel target-object class, leveraging the outcome of any previous queries to determine where to query next. Through extensive experiments on several large-scale satellite imagery datasets, we show that the proposed approach significantly outperforms several strong baselines. We also propose novel domain adaptation techniques that improve the policy at decision time when there is a significant domain gap with the training data. Code is publicly available.

arxiv情報

著者 Anindya Sarkar,Michael Lanier,Scott Alfeld,Jiarui Feng,Roman Garnett,Nathan Jacobs,Yevgeniy Vorobeychik
発行日 2023-10-29 20:24:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク