Distributed multi-agent target search and tracking with Gaussian process and reinforcement learning

要約

ターゲットの探索と追跡のために複数のロボットを導入することには多くの実用的な用途がありますが、未知のターゲット、または部分的に既知のターゲットに対する計画を立てるという課題は依然として対処が困難です。
最近の深層学習の進歩により、強化学習などのインテリジェントな制御技術により、エージェントは事前知識がほとんど、またはまったくなくても環境のインタラクションから自律的に学習できるようになりました。
このような方法は、データ駆動型の方法で未知のターゲットに対する計画の探索と活用のトレードオフに対処し、従来のアプローチに典型的なヒューリスティックへの依存を排除​​し、エンドツーエンドのトレーニングで意思決定パイプラインを合理化します。
この論文では、分散ガウスプロセスに基づいてターゲットマップを構築するマルチエージェント強化学習手法を提案します。
分散ガウス プロセスを活用して、ターゲットの場所に対する信念をエンコードし、未知のターゲットに対して効率的に計画を立てます。
トレーニングされたポリシーのパフォーマンスと移行可能性をシミュレーションで評価し、ハードウェア実験を使用して超小型無人航空機の群れでその方法を実証します。

要約(オリジナル)

Deploying multiple robots for target search and tracking has many practical applications, yet the challenge of planning over unknown or partially known targets remains difficult to address. With recent advances in deep learning, intelligent control techniques such as reinforcement learning have enabled agents to learn autonomously from environment interactions with little to no prior knowledge. Such methods can address the exploration-exploitation tradeoff of planning over unknown targets in a data-driven manner, eliminating the reliance on heuristics typical of traditional approaches and streamlining the decision-making pipeline with end-to-end training. In this paper, we propose a multi-agent reinforcement learning technique with target map building based on distributed Gaussian process. We leverage the distributed Gaussian process to encode belief over the target locations and efficiently plan over unknown targets. We evaluate the performance and transferability of the trained policy in simulation and demonstrate the method on a swarm of micro unmanned aerial vehicles with hardware experiments.

arxiv情報

著者 Jigang Kim,Dohyun Jang,H. Jin Kim
発行日 2023-08-29 01:53:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク