要約
分散型マルチエージェントの軌跡計画者では、エージェントは衝突のない軌跡を生成するために、自分の位置を通信して交換する必要があります。
ただし、ローカリゼーションエラー/不確実性により、エージェント間で軌跡が完全に共有されている場合でも、軌跡の派生声が失敗する可能性があります。
この問題に対処するために、最初にPARMとPARM*を提示します。知覚を認識し、分散化された、非同期軌跡プランナーを紹介します。これにより、エージェントのチームが不確実な環境をナビゲートできるようになり、知覚情報を使用して軌跡を排出し、障害物を避けます。
PARM*は、PARMが保守的ではないため、より多くの計算を使用して最適なソリューションを見つけるため、PARMとは異なります。
これらの方法は最先端のパフォーマンスを実現しますが、船内での大きな最適化の問題を解決する必要があるため、高い計算コストに悩まされているため、エージェントが高レートで再生することが困難です。
この課題を克服するために、PARM*を専門家のデモンストレーターとして使用して模倣学習(IL)で訓練された学習ベースのプランナーである2番目の重要な貢献、Primerを提示します。
プライマーは、ニューラルネットワークの展開時に低い計算要件を活用し、最適化ベースのアプローチよりも最大5500倍高速な計算速度を達成します。
要約(オリジナル)
In decentralized multiagent trajectory planners, agents need to communicate and exchange their positions to generate collision-free trajectories. However, due to localization errors/uncertainties, trajectory deconfliction can fail even if trajectories are perfectly shared between agents. To address this issue, we first present PARM and PARM*, perception-aware, decentralized, asynchronous multiagent trajectory planners that enable a team of agents to navigate uncertain environments while deconflicting trajectories and avoiding obstacles using perception information. PARM* differs from PARM as it is less conservative, using more computation to find closer-to-optimal solutions. While these methods achieve state-of-the-art performance, they suffer from high computational costs as they need to solve large optimization problems onboard, making it difficult for agents to replan at high rates. To overcome this challenge, we present our second key contribution, PRIMER, a learning-based planner trained with imitation learning (IL) using PARM* as the expert demonstrator. PRIMER leverages the low computational requirements at deployment of neural networks and achieves a computation speed up to 5500 times faster than optimization-based approaches.
arxiv情報
著者 | Kota Kondo,Claudius T. Tewari,Andrea Tagliabue,Jesus Tordesillas,Parker C. Lusk,Mason B. Peterson,Jonathan P. How |
発行日 | 2025-04-25 14:44:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google