Emergent Behaviors in Multi-Agent Target Acquisition

要約

マルチエージェント システム (MAS) 内でのエージェントの行動と役割については、限られた研究と表面的な評価しか利用できません。
タスクの目標をターゲットの獲得と共有する追跡回避(別名、捕食者と被食者の追跡)ゲームで強化学習(RL)を使用してMASをシミュレートし、RLで訓練された追跡者のポリシーを2つの異なる(
非 RL) 分析戦略。
時間の経過に伴うエージェントの位置 (状態空間変数) のヒートマップを使用して、RL で訓練された回避者の行動を分類することができます。
私たちのアプローチの斬新さは、エージェントの行動を分類することを可能にする、根底にあるデータの規則性を明らかにする影響力のある機能セットの作成を伴います。
この分類は、ターゲットの行動を特定して予測できるようにすることで、(敵の) ターゲットを捕まえるのに役立つ可能性があります。追跡者に拡張すると、チームメイトの行動を特定するこのアプローチにより、エージェントはより効果的に調整できるようになります。

要約(オリジナル)

Only limited studies and superficial evaluations are available on agents’ behaviors and roles within a Multi-Agent System (MAS). We simulate a MAS using Reinforcement Learning (RL) in a pursuit-evasion (a.k.a predator-prey pursuit) game, which shares task goals with target acquisition, and we create different adversarial scenarios by replacing RL-trained pursuers’ policies with two distinct (non-RL) analytical strategies. Using heatmaps of agents’ positions (state-space variable) over time, we are able to categorize an RL-trained evader’s behaviors. The novelty of our approach entails the creation of an influential feature set that reveals underlying data regularities, which allow us to classify an agent’s behavior. This classification may aid in catching the (enemy) targets by enabling us to identify and predict their behaviors, and when extended to pursuers, this approach towards identifying teammates’ behavior may allow agents to coordinate more effectively.

arxiv情報

著者 Piyush K. Sharma,Erin Zaroukian,Derrik E. Asher,Bryson Howell
発行日 2022-12-15 15:20:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.MA パーマリンク