Efficient Planning of Multi-Robot Collective Transport using Graph Reinforcement Learning with Higher Order Topological Abstraction

要約

効率的なマルチロボット タスク割り当て (MRTA) は、災害対応、倉庫業務、建設など、時間に敏感なさまざまなアプリケーションの基礎です。
この論文は、MRTA-集団輸送またはMRTA-CTと呼ばれるこれらの問題の特定のクラスに取り組みます。ここでのタスクにはさまざまな作業負荷と期限があり、ロボットは飛行範囲、通信範囲、積載量の制約を受けます。
数百から数百のタスクと数十から数百のロボットが関係するこれらの問題の大規模なインスタンスの場合、従来の非学習ソルバーは時間効率が悪いことが多く、新たな学習ベースのポリシーは、コストのかかる再トレーニングなしでは、より大きなサイズの問題にはうまく対応できません。
このギャップに対処するために、カプセル ネットワークとマルチヘッド アテンション メカニズムを含む最近提案されたエンコーダ デコーダ グラフ ニューラル ネットワークを使用し、トポロジカル ディスクリプタ (TD) を新機能として革新的に追加して、同様でより大きなサイズの目に見えない問題への転送可能性を向上させます。
永続的な相同性を使用して TD を導き出し、近接ポリシー最適化を使用して TD 拡張グラフ ニューラル ネットワークをトレーニングします。
結果として得られるポリシー モデルは、最先端の非学習ベースラインと比較してはるかに高速でありながら、優れています。
TD を使用する利点は、トレーニングで使用した問題よりも大きなサイズの問題をテストするためにスケーリングするときにすぐに明らかです。

要約(オリジナル)

Efficient multi-robot task allocation (MRTA) is fundamental to various time-sensitive applications such as disaster response, warehouse operations, and construction. This paper tackles a particular class of these problems that we call MRTA-collective transport or MRTA-CT — here tasks present varying workloads and deadlines, and robots are subject to flight range, communication range, and payload constraints. For large instances of these problems involving 100s-1000’s of tasks and 10s-100s of robots, traditional non-learning solvers are often time-inefficient, and emerging learning-based policies do not scale well to larger-sized problems without costly retraining. To address this gap, we use a recently proposed encoder-decoder graph neural network involving Capsule networks and multi-head attention mechanism, and innovatively add topological descriptors (TD) as new features to improve transferability to unseen problems of similar and larger size. Persistent homology is used to derive the TD, and proximal policy optimization is used to train our TD-augmented graph neural network. The resulting policy model compares favorably to state-of-the-art non-learning baselines while being much faster. The benefit of using TD is readily evident when scaling to test problems of size larger than those used in training.

arxiv情報

著者 Steve Paul,Wenyuan Li,Brian Smyth,Yuzhou Chen,Yulia Gel,Souma Chowdhury
発行日 2023-08-17 16:08:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO パーマリンク