N-Agent Ad Hoc Teamwork

要約

マルチエージェント設定で協力的な行動を学習するための現在のアプローチは、比較的制限的な設定を前提としています。
標準的な完全協調マルチエージェント強化学習では、学習アルゴリズムはシナリオ内の \textit{all} エージェントを制御しますが、アドホック チームワークでは、学習アルゴリズムは通常、シナリオ内の $\textit{single}$ エージェントのみの制御を想定します

ただし、現実世界の多くの協力設定は、それほど制限がありません。
たとえば、自動運転のシナリオでは、企業は同じ学習アルゴリズムを使用して自社の車両をトレーニングする可能性がありますが、いったん道路を走行すると、これらの車両は別の企業の車両と連携する必要があります。
協調学習手法が対応できるシナリオのクラスを一般化するために、$N$ エージェントのアドホック チームワークを導入します。このチームワークでは、一連の自律エージェントが、評価時に動的に変化する数と種類のチームメイトと対話し、協力する必要があります。
この論文は問題を形式化し、$\textit{エージェント モデリングによるポリシーの最適化}$ (POAM) アルゴリズムを提案します。
POAM は、NAHT 問題に対するポリシー勾配のマルチエージェント強化学習アプローチであり、チームメイトの行動の表現を学習することで多様なチームメイトの行動への適応を可能にします。
StarCraft II タスクの経験的評価では、POAM がベースライン アプローチと比較して協力タスクの収益を向上させ、目に見えないチームメイトへの分散外の一般化を可能にすることが示されています。

要約(オリジナル)

Current approaches to learning cooperative behaviors in multi-agent settings assume relatively restrictive settings. In standard fully cooperative multi-agent reinforcement learning, the learning algorithm controls \textit{all} agents in the scenario, while in ad hoc teamwork, the learning algorithm usually assumes control over only a $\textit{single}$ agent in the scenario. However, many cooperative settings in the real world are much less restrictive. For example, in an autonomous driving scenario, a company might train its cars with the same learning algorithm, yet once on the road, these cars must cooperate with cars from another company. Towards generalizing the class of scenarios that cooperative learning methods can address, we introduce $N$-agent ad hoc teamwork, in which a set of autonomous agents must interact and cooperate with dynamically varying numbers and types of teammates at evaluation time. This paper formalizes the problem, and proposes the $\textit{Policy Optimization with Agent Modelling}$ (POAM) algorithm. POAM is a policy gradient, multi-agent reinforcement learning approach to the NAHT problem, that enables adaptation to diverse teammate behaviors by learning representations of teammate behaviors. Empirical evaluation on StarCraft II tasks shows that POAM improves cooperative task returns compared to baseline approaches, and enables out-of-distribution generalization to unseen teammates.

arxiv情報

著者 Caroline Wang,Arrasy Rahman,Ishan Durugkar,Elad Liebman,Peter Stone
発行日 2024-04-16 17:13:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, I.2.1 パーマリンク