MARLlib: A Scalable and Efficient Multi-agent Reinforcement Learning Library

要約

マルチエージェント強化学習 (MARL) の分野で研究者が直面している重要な課題は、互換性の問題を考慮する必要性を回避しながら、マルチエージェントのタスクとアルゴリズムの組み合わせに対して高速で互換性のある開発を提供できるライブラリを特定することです。
このペーパーでは、3 つの主要なメカニズム、1) 標準化されたマルチエージェント環境ラッパー、2) エージェント レベルのアルゴリズム実装、3) 柔軟なポリシー マッピング戦略を活用することで、前述の課題に対処するように設計されたライブラリである MARLlib を紹介します。
これらのメカニズムを利用することで、MARLlib はマルチエージェント タスクの絡み合った性質とアルゴリズムの学習プロセスを効果的に解きほぐし、現在のタスクの属性に基づいてトレーニング戦略を自動的に変更することができます。
MARLlib ライブラリのソース コードは、GitHub: \url{https://github.com/Replicable-MARL/MARLlib} で公開されています。

要約(オリジナル)

A significant challenge facing researchers in the area of multi-agent reinforcement learning (MARL) pertains to the identification of a library that can offer fast and compatible development for multi-agent tasks and algorithm combinations, while obviating the need to consider compatibility issues. In this paper, we present MARLlib, a library designed to address the aforementioned challenge by leveraging three key mechanisms: 1) a standardized multi-agent environment wrapper, 2) an agent-level algorithm implementation, and 3) a flexible policy mapping strategy. By utilizing these mechanisms, MARLlib can effectively disentangle the intertwined nature of the multi-agent task and the learning process of the algorithm, with the ability to automatically alter the training strategy based on the current task’s attributes. The MARLlib library’s source code is publicly accessible on GitHub: \url{https://github.com/Replicable-MARL/MARLlib}.

arxiv情報

著者 Siyi Hu,Yifan Zhong,Minquan Gao,Weixun Wang,Hao Dong,Xiaodan Liang,Zhihui Li,Xiaojun Chang,Yaodong Yang
発行日 2023-08-23 11:15:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.MA パーマリンク