BAMAX: Backtrack Assisted Multi-Agent Exploration using Reinforcement Learning

要約

自律ロボットが未知の環境を協力して探索することは、依然として未解決の問題です。
この問題の根源は、各エージェントが情報を部分的にしか認識していない非定常エージェント間の調整にあります。
複数のロボットが環境を完全に探索しなければならない場合、問題はさらに悪化します。
この論文では、仮想環境全体を探索しようとするマルチエージェント システムにおける共同探索の手法である、強化学習を使用したバックトラック支援マルチエージェント探索 (BAMAX) を紹介します。
名前にあるように、BAMAX はバックトラック支援を活用して、探索タスクにおけるエージェントのパフォーマンスを向上させます。
従来のアプローチに対して BAMAX を評価するために、10×10 から 60×60 までの複数の六角形のグリッド サイズにわたって実施された実験の結果を示します。
結果は、BAMAX がこれらの環境全体でのカバレッジの速さとバックトラッキングの少なさの点で他の方法よりも優れていることを示しています。

要約(オリジナル)

Autonomous robots collaboratively exploring an unknown environment is still an open problem. The problem has its roots in coordination among non-stationary agents, each with only a partial view of information. The problem is compounded when the multiple robots must completely explore the environment. In this paper, we introduce Backtrack Assisted Multi-Agent Exploration using Reinforcement Learning (BAMAX), a method for collaborative exploration in multi-agent systems which attempts to explore an entire virtual environment. As in the name, BAMAX leverages backtrack assistance to enhance the performance of agents in exploration tasks. To evaluate BAMAX against traditional approaches, we present the results of experiments conducted across multiple hexagonal shaped grids sizes, ranging from 10×10 to 60×60. The results demonstrate that BAMAX outperforms other methods in terms of faster coverage and less backtracking across these environments.

arxiv情報

著者 Geetansh Kalra,Amit Patel,Atul Chaudhari,Divye Singh
発行日 2024-11-13 07:38:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク