要約
自律型ロボットは、その効率性と人件費の低さから、いくつかのマッピングやデータ収集のタスクに採用されています。
これらのタスクでは、ロボットは、経路の長さやミッション時間などの特定のリソース バジェットに制約されながら、未知の環境で関心のあるターゲットをマッピングする必要があります。
各ロボットは環境内の静的な障害物からの衝突を検出して回避するだけでなく、ロボット間の衝突を避けるために他のロボットの軌道をモデル化する必要があるため、これは困難な問題です。
私たちは、未知の 3D 環境で関心のあるターゲットをマッピングするための、マルチロボットの有益な経路計画のための新しい深層強化学習アプローチを提案します。
私たちのアプローチの重要な側面は、他のロボットの軌道をモデル化して、通信とロボット間の衝突回避の計画を可能にする拡張グラフです。
私たちは、集中トレーニングと分散実行パラダイムを通じて、分散強化学習ポリシーをトレーニングします。
一度トレーニングすると、私たちのポリシーはさまざまな数のロボットに拡張可能であり、再トレーニングは必要ありません。
私たちのアプローチは、発見された対象ターゲットの数の点で、他の最先端のマルチロボット ターゲット マッピング アプローチよりも 33.75% 優れています。
コードとモデルは https://github.com/AccGen99/marl_ipp でオープンソース化されています。
要約(オリジナル)
Autonomous robots are being employed in several mapping and data collection tasks due to their efficiency and low labor costs. In these tasks, the robots are required to map targets-of-interest in an unknown environment while constrained to a given resource budget such as path length or mission time. This is a challenging problem as each robot has to not only detect and avoid collisions from static obstacles in the environment but also has to model other robots’ trajectories to avoid inter-robot collisions. We propose a novel deep reinforcement learning approach for multi-robot informative path planning to map targets-of-interest in an unknown 3D environment. A key aspect of our approach is an augmented graph that models other robots’ trajectories to enable planning for communication and inter-robot collision avoidance. We train our decentralized reinforcement learning policy via the centralized training and decentralized execution paradigm. Once trained, our policy is also scalable to varying number of robots and does not require re-training. Our approach outperforms other state-of-the-art multi-robot target mapping approaches by 33.75% in terms of the number of discovered targets-of-interest. We open-source our code and model at: https://github.com/AccGen99/marl_ipp
arxiv情報
著者 | Apoorva Vashisth,Dipam Patel,Damon Conover,Aniket Bera |
発行日 | 2024-09-25 14:27:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google