Deep Reinforcement Learning for Decentralized Multi-Robot Exploration With Macro Actions

要約

協力的なマルチロボット チームは、チームの調整を維持するためのローカル情報の交換を妨げるコミュニケーションのドロップアウトに対処しながら、乱雑で構造化されていない環境を探索できる必要があります。
したがって、ロボットは行動を選択する際に高レベルのチームメイトの意図を考慮する必要があります。
このレターでは、目に見えず、構造化されておらず、雑然とした環境でのマルチロボット探索中の通信ドロップアウトの課題に対処するために、マルチエージェント深層強化学習 (DRL) を使用した初のマクロ アクション分散探索ネットワーク (MADE-Net) を紹介します。
シミュレートされたロボットチームの探索実験が実施され、従来の手法および DRL 手法と比較されました。その結果、MADE-Net は、計算時間、総移動距離、ロボット間のローカル インタラクションの数、さまざまな程度の通信ドロップアウトにわたる探索速度の点で、すべてのベンチマーク手法を上回っていました。
3D 環境でのスケーラビリティの調査では、チームと環境の規模が大きくなるにつれて、MADE-Net を使用した探索時間が短縮されることが示されました。
提示された実験は、私たちの方法の有効性と堅牢性を強調しています。

要約(オリジナル)

Cooperative multi-robot teams need to be able to explore cluttered and unstructured environments while dealing with communication dropouts that prevent them from exchanging local information to maintain team coordination. Therefore, robots need to consider high-level teammate intentions during action selection. In this letter, we present the first Macro Action Decentralized Exploration Network (MADE-Net) using multi-agent deep reinforcement learning (DRL) to address the challenges of communication dropouts during multi-robot exploration in unseen, unstructured, and cluttered environments. Simulated robot team exploration experiments were conducted and compared against classical and DRL methods where MADE-Net outperformed all benchmark methods in terms of computation time, total travel distance, number of local interactions between robots, and exploration rate across various degrees of communication dropouts. A scalability study in 3D environments showed a decrease in exploration time with MADE-Net with increasing team and environment sizes. The experiments presented highlight the effectiveness and robustness of our method.

arxiv情報

著者 Aaron Hao Tan,Federico Pizarro Bejarano,Yuhan Zhu,Richard Ren,Goldie Nejat
発行日 2024-02-26 16:11:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク