Emergence of Roles in Robotic Teams with Model Sharing and Limited Communication

要約

学習が単一のエージェントに集中化され、そのモデルが非学習剤の集団に定期的に広まっているマルチエージェント採餌システムで使用するための強化学習戦略を提示します。
マルチエージェント強化学習(MARL)が一般的なアプローチであるドメインでは、このアプローチは、MARLや集中学習モデルなどのアプローチと比較して、計算およびエネルギーの需要を大幅に削減することを目的としています。
高性能の採餌剤を開発することにより、これらのアプローチは、物流、環境監視、自律探査などの現実世界のアプリケーションに翻訳できます。
明示的な指示なしに、エージェント間の役割開発を促進するこのアプローチに報酬機能が組み込まれました。
これにより、エージェント間の動作が区別されました。
役割の差別化の暗黙的な励ましにより、エージェント間の明示的なコミュニケーションを必要とせずに、エージェントが環境との相互作用に依存する役割を変更できる動的アクションが可能になります。

要約(オリジナル)

We present a reinforcement learning strategy for use in multi-agent foraging systems in which the learning is centralised to a single agent and its model is periodically disseminated among the population of non-learning agents. In a domain where multi-agent reinforcement learning (MARL) is the common approach, this approach aims to significantly reduce the computational and energy demands compared to approaches such as MARL and centralised learning models. By developing high performing foraging agents, these approaches can be translated into real-world applications such as logistics, environmental monitoring, and autonomous exploration. A reward function was incorporated into this approach that promotes role development among agents, without explicit directives. This led to the differentiation of behaviours among the agents. The implicit encouragement of role differentiation allows for dynamic actions in which agents can alter roles dependent on their interactions with the environment without the need for explicit communication between agents.

arxiv情報

著者 Ian O’Flynn,Harun Šiljak
発行日 2025-05-01 14:05:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.MA, cs.RO, cs.SY, eess.SY パーマリンク