CoMIX: A Multi-agent Reinforcement Learning Training Architecture for Efficient Decentralized Coordination and Independent Decision Making

要約

強力な調整スキルにより、エージェントは共有環境で団結して共通の目標に向かって一緒に行動することができ、理想的には互いの進捗を妨げることなく個別に行動することができます。
この目的を達成するために、この文書では、柔軟なポリシーを通じて緊急の調整を可能にし、同時に個人レベルでの独立した意思決定を可能にする、分散型エージェントのための新しいトレーニング フレームワークである調整 QMIX (CoMIX) を紹介します。
CoMIX は、各エージェントの意思決定プロセスにおける段階的なステップとして、利己的で協調的な行動をモデル化します。
これにより、エージェントは独立性と協力性のバランスをとりながら、さまざまな状況に自分の行動を動的に適応させることができます。
さまざまなシミュレーション環境を使用した実験により、CoMIX が共同タスクでベースラインを上回るパフォーマンスを発揮することが実証されました。
この結果は、マルチエージェント システムでの調整を改善するための効果的な手法として、増分ポリシーのアプローチを検証しました。

要約(オリジナル)

Robust coordination skills enable agents to operate cohesively in shared environments, together towards a common goal and, ideally, individually without hindering each other’s progress. To this end, this paper presents Coordinated QMIX (CoMIX), a novel training framework for decentralized agents that enables emergent coordination through flexible policies, allowing at the same time independent decision-making at individual level. CoMIX models selfish and collaborative behavior as incremental steps in each agent’s decision process. This allows agents to dynamically adapt their behavior to different situations balancing independence and collaboration. Experiments using a variety of simulation environments demonstrate that CoMIX outperforms baselines on collaborative tasks. The results validate our incremental policy approach as effective technique for improving coordination in multi-agent systems.

arxiv情報

著者 Giovanni Minelli,Mirco Musolesi
発行日 2023-08-21 13:45:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.MA パーマリンク