要約
マルチエージェント システム (MAS) およびマルチエージェント強化学習 (MARL) では協力が基本であり、多くの場合、エージェントは個人の利益と集団の報酬のバランスを取る必要があります。
これに関連して、この論文は、エージェントが個人とグループの両方の結果を最適化する必要があるゲーム理論のシナリオ、つまり反復囚人のジレンマで協力を呼び出す戦略を調査することを目的としています。
既存の協力戦略が、繰り返しのゲームでグループ指向の行動を促進する効果について分析されます。
グループの報酬を奨励することで個人の利益も大きくなり、分散システムで見られる現実世界のジレンマに対処する修正が提案されています。
この研究は、従来の計算と平衡決定が困難な、指数関数的に増加するエージェント集団 ($N \longrightarrow +\infty$) を伴うシナリオにまで拡張されています。
平均場ゲーム理論を活用して、反復ゲームにおける無限大のエージェント セットに対して均衡解と報酬構造が確立されます。
最後に、Multi Agent-Posthumous Credit Assignment トレーナーを使用したシミュレーションを通じて実用的な洞察が提供され、この論文では、シミュレーション アルゴリズムを適応させて、グループ報酬の協力に有利なシナリオを作成する方法について検討しています。
これらの実践的な実装は、理論上の概念と現実世界のアプリケーションの橋渡しをします。
要約(オリジナル)
Cooperation is fundamental in Multi-Agent Systems (MAS) and Multi-Agent Reinforcement Learning (MARL), often requiring agents to balance individual gains with collective rewards. In this regard, this paper aims to investigate strategies to invoke cooperation in game-theoretic scenarios, namely the Iterated Prisoner’s Dilemma, where agents must optimize both individual and group outcomes. Existing cooperative strategies are analyzed for their effectiveness in promoting group-oriented behavior in repeated games. Modifications are proposed where encouraging group rewards will also result in a higher individual gain, addressing real-world dilemmas seen in distributed systems. The study extends to scenarios with exponentially growing agent populations ($N \longrightarrow +\infty$), where traditional computation and equilibrium determination are challenging. Leveraging mean-field game theory, equilibrium solutions and reward structures are established for infinitely large agent sets in repeated games. Finally, practical insights are offered through simulations using the Multi Agent-Posthumous Credit Assignment trainer, and the paper explores adapting simulation algorithms to create scenarios favoring cooperation for group rewards. These practical implementations bridge theoretical concepts with real-world applications.
arxiv情報
著者 | Vaigarai Sathi,Sabahat Shaik,Jaswanth Nidamanuri |
発行日 | 2023-10-01 14:58:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google