要約
マルチエージェント システムで個別の目的または共有の目的を達成するには、エージェント間の効果的な調整と協力が不可欠です。
現実世界の多くのマルチエージェント システムでは、エージェントはさまざまな能力と制約を持っているため、チーム内の調整と協力を確実に成功させるには、エージェントの特定の特性に基づいてエージェントに優先順位を付ける必要があります。
しかし、既存の協力的なマルチエージェント アルゴリズムのほとんどは、これらの個人差を考慮しておらず、調整戦略を導く効果的なメカニズムを欠いています。
私たちは、関係認識を価値ベースの因数分解法に組み込んだ、新しいマルチエージェント学習アプローチを提案します。
リレーショナル ネットワークを前提として、私たちのアプローチはエージェント間の関係を利用して、特定のエージェントを他のエージェントよりも優先し、協力タスクにおけるエージェント間の違いを考慮することで、新しいチームの行動を発見します。
2 つの異なる環境で 15 回の実験を実施することで、提案したアプローチの有効性を評価しました。
結果は、私たちが提案したアルゴリズムがチームの行動に影響を与え、形成し、協力戦略を導き、エージェントの学習を促進できることを示しています。
したがって、私たちのアプローチは、特にエージェントが多様な特性を持つ場合、マルチエージェント システムでの使用に有望です。
要約(オリジナル)
Effective coordination and cooperation among agents are crucial for accomplishing individual or shared objectives in multi-agent systems. In many real-world multi-agent systems, agents possess varying abilities and constraints, making it necessary to prioritize agents based on their specific properties to ensure successful coordination and cooperation within the team. However, most existing cooperative multi-agent algorithms do not take into account these individual differences, and lack an effective mechanism to guide coordination strategies. We propose a novel multi-agent learning approach that incorporates relationship awareness into value-based factorization methods. Given a relational network, our approach utilizes inter-agents relationships to discover new team behaviors by prioritizing certain agents over other, accounting for differences between them in cooperative tasks. We evaluated the effectiveness of our proposed approach by conducting fifteen experiments in two different environments. The results demonstrate that our proposed algorithm can influence and shape team behavior, guide cooperation strategies, and expedite agent learning. Therefore, our approach shows promise for use in multi-agent systems, especially when agents have diverse properties.
arxiv情報
著者 | Yasin Findik,Paul Robinette,Kshitij Jerath,S. Reza Ahmadzadeh |
発行日 | 2023-10-19 17:04:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google