要約
協調的なマルチエージェント強化学習 (MARL) アプローチは、マルチエージェント チームで個人または共有の目標を達成するための効果的なマルチエージェント協力戦略を見つけるという課題に取り組みます。
ただし、現実のシナリオでは、バッテリーの消耗や機械的な問題などの制約により、エージェントが予期せぬ障害に遭遇する可能性があります。
MARL の既存の最先端の手法は、エージェントがすでに協力戦略に集中すると、そのような機能不全から回復するとしても、回復が遅くなることがよくあります。
このギャップに対処するために、Collaborative Adaptation (CA) フレームワークを紹介します。
CA は、エージェント間の関係を活用することでコラボレーションを導き、予期せぬ障害からの適応を加速するメカニズムを導入しています。
私たちの調査結果は、CA によってエージェントがエージェント間の関係の知識に基づいて行動し、予期せぬエージェントの障害から回復し、適切な協力戦略を選択できることを示しています。
要約(オリジナル)
Cooperative multi-agent reinforcement learning (MARL) approaches tackle the challenge of finding effective multi-agent cooperation strategies for accomplishing individual or shared objectives in multi-agent teams. In real-world scenarios, however, agents may encounter unforeseen failures due to constraints like battery depletion or mechanical issues. Existing state-of-the-art methods in MARL often recover slowly — if at all — from such malfunctions once agents have already converged on a cooperation strategy. To address this gap, we present the Collaborative Adaptation (CA) framework. CA introduces a mechanism that guides collaboration and accelerates adaptation from unforeseen failures by leveraging inter-agent relationships. Our findings demonstrate that CA enables agents to act on the knowledge of inter-agent relations, recovering from unforeseen agent failures and selecting appropriate cooperative strategies.
arxiv情報
著者 | Yasin Findik,Paul Robinette,Kshitij Jerath,S. Reza Ahmadzadeh |
発行日 | 2023-10-19 17:00:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google