Dual-Mandate Patrols: Multi-Armed Bandits for Green Security

要約

野生動物や森林を保護するためのグリーンセキュリティ分野での保全活動は、攻撃者(密猟者や違法伐採者など)から守るために広大な地域をパトロールしなければならない防御者(パトロール隊員)の確保が限られていることで制約を受けています。
防衛側は、めったに訪れない地域の探索と既知のホットスポットの活用のバランスをとりながら、保護地域の各地域で過ごす時間を選択する必要があります。
私たちは問題を確率的多腕バンディットとして定式化し、各アクションがパトロール戦略を表し、パトロール ポリシーの収束率を保証できるようにします。
しかし、単純な山賊のアプローチでは、長期的な最適性のために短期的なパフォーマンスが損なわれ、動物が密猟され、森林が破壊される結果になります。
パフォーマンスを高速化するために、報酬関数の滑らかさとアクションの分解性を活用します。
リプシッツ連続性と分解が互いの収束を助ける相乗効果を示します。
そうすることで、私たちは組み合わせ主義とリプシッツの盗賊の間のギャップを埋め、短期的なパフォーマンスを最適化しながら既存の保証を強化する後悔のないアプローチを提示します。
私たちのアルゴリズム LIZARD がカンボジアからの現実世界の密猟データのパフォーマンスを向上させることを実証します。

要約(オリジナル)

Conservation efforts in green security domains to protect wildlife and forests are constrained by the limited availability of defenders (i.e., patrollers), who must patrol vast areas to protect from attackers (e.g., poachers or illegal loggers). Defenders must choose how much time to spend in each region of the protected area, balancing exploration of infrequently visited regions and exploitation of known hotspots. We formulate the problem as a stochastic multi-armed bandit, where each action represents a patrol strategy, enabling us to guarantee the rate of convergence of the patrolling policy. However, a naive bandit approach would compromise short-term performance for long-term optimality, resulting in animals poached and forests destroyed. To speed up performance, we leverage smoothness in the reward function and decomposability of actions. We show a synergy between Lipschitz-continuity and decomposition as each aids the convergence of the other. In doing so, we bridge the gap between combinatorial and Lipschitz bandits, presenting a no-regret approach that tightens existing guarantees while optimizing for short-term performance. We demonstrate that our algorithm, LIZARD, improves performance on real-world poaching data from Cambodia.

arxiv情報

著者 Lily Xu,Elizabeth Bondi,Fei Fang,Andrew Perrault,Kai Wang,Milind Tambe
発行日 2024-04-26 13:51:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク