Optimal foraging strategies can be learned and outperform Lévy walks

要約

L\’evy walks やその他の最適採餌の理論モデルは、現実世界のシナリオを記述するためにうまく使用されており、経済、物理学、生態学、進化生物学などのいくつかの分野で注目を集めています。
しかし、ほとんどの場合、採餌効率を最大化する戦略と、そのような戦略を生物が学習できるかどうかは不明のままです。
これらの問題に対処するために、強化学習エージェントとして採餌者をモデル化します。
まず、強化学習モデルで報酬を最大化することは、採餌効率を最適化することと同等であることを理論的に証明します。
次に、数値実験により、エージェントが L\’evy walk などの既知の戦略の効率を上回る採餌戦略を学習することを示します。

要約(オリジナル)

L\’evy walks and other theoretical models of optimal foraging have been successfully used to describe real-world scenarios, attracting attention in several fields such as economy, physics, ecology, and evolutionary biology. However, it remains unclear in most cases which strategies maximize foraging efficiency and whether such strategies can be learned by living organisms. To address these questions, we model foragers as reinforcement learning agents. We first prove theoretically that maximizing rewards in our reinforcement learning model is equivalent to optimizing foraging efficiency. We then show with numerical experiments that our agents learn foraging strategies which outperform the efficiency of known strategies such as L\’evy walks.

arxiv情報

著者 Gorka Muñoz-Gil,Andrea López-Incera,Lukas J. Fiderer,Hans J. Briegel
発行日 2023-03-10 16:40:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.stat-mech, cs.AI, physics.bio-ph, q-bio.PE パーマリンク