Efficient Planning of Multi-Robot Collective Transport using Graph Reinforcement Learning with Higher Order Topological Abstraction

要約

効率的なマルチロボット タスク割り当て (MRTA) は、災害対応、倉庫業務、建設など、時間に敏感なさまざまなアプリケーションの基本です。
このホワイト ペーパーでは、MRTA-集団輸送または MRTA-CT と呼ばれるこれらの問題の特定のクラスに取り組みます。ここでは、さまざまな作業負荷と期限が存在するタスクがあり、ロボットは飛行範囲、通信範囲、ペイロードの制約を受けます。
数百から数千のタスクと数十から数百のロボットを含むこれらの問題の大規模なインスタンスの場合、従来の非学習ソルバーは多くの場合、時間効率が悪く、新しい学習ベースのポリシーは、コストのかかる再トレーニングなしではより大きな問題にうまく拡張できません。
このギャップに対処するために、カプセル ネットワークとマルチヘッド アテンション メカニズムを含む最近提案されたエンコーダー デコーダー グラフ ニューラル ネットワークを使用し、新しい機能としてトポロジー記述子 (TD) を革新的に追加して、同様の、またはより大きなサイズの目に見えない問題への転送可能性を改善します。
パーシステント ホモロジーを使用して TD を導出し、近位ポリシー最適化を使用して TD 拡張グラフ ニューラル ネットワークをトレーニングします。
結果として得られるポリシー モデルは、最先端の非学習ベースラインに比べてはるかに高速でありながら、優れています。
TD を使用する利点は、トレーニングで使用される問題よりも大きなサイズの問題をテストするためにスケーリングする場合にすぐに明らかになります。

要約(オリジナル)

Efficient multi-robot task allocation (MRTA) is fundamental to various time-sensitive applications such as disaster response, warehouse operations, and construction. This paper tackles a particular class of these problems that we call MRTA-collective transport or MRTA-CT — here tasks present varying workloads and deadlines, and robots are subject to flight range, communication range, and payload constraints. For large instances of these problems involving 100s-1000’s of tasks and 10s-100s of robots, traditional non-learning solvers are often time-inefficient, and emerging learning-based policies do not scale well to larger-sized problems without costly retraining. To address this gap, we use a recently proposed encoder-decoder graph neural network involving Capsule networks and multi-head attention mechanism, and innovatively add topological descriptors (TD) as new features to improve transferability to unseen problems of similar and larger size. Persistent homology is used to derive the TD, and proximal policy optimization is used to train our TD-augmented graph neural network. The resulting policy model compares favorably to state-of-the-art non-learning baselines while being much faster. The benefit of using TD is readily evident when scaling to test problems of size larger than those used in training.

arxiv情報

著者 Steve Paul,Wenyuan Li,Brian Smyth,Yuzhou Chen,Yulia Gel,Souma Chowdhury
発行日 2023-03-15 20:58:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO パーマリンク