要約
通信のない乱雑な環境における複数のロボットの動作計画は、特にリアルタイム効率、動作の安全性、分散計算、軌道の最適性などの観点から困難です。この論文では、分散型マルチロボット用に強化ポテンシャル場法を開発します。
強化学習と人工ポテンシャル場の合成設計である動作計画。
ロボット間およびロボット環境の相互作用をモデル化するために、自己注意メカニズムを組み込んだ観察が提示されます。
軌道の滑らかさを向上させるために、ソフトな壁追従ルールが開発されました。
私たちの方法は事後計画に属しますが、環境プロパティは暗黙的にエンコードされます。
私たちの方法におけるロボットの総数は、任意の数までスケールアップできます。
通常の APF および RL メソッドと比較したパフォーマンスの向上は、数値シミュレーションによって実証されています。
私たちの方法の能力をさらに説明するために、クアッドローターを使用して実験も実行されます。
要約(オリジナル)
Motion planning is challenging for multiple robots in cluttered environments without communication, especially in view of real-time efficiency, motion safety, distributed computation, and trajectory optimality, etc. In this paper, a reinforced potential field method is developed for distributed multi-robot motion planning, which is a synthesized design of reinforcement learning and artificial potential fields. An observation embedding with a self-attention mechanism is presented to model the robot-robot and robot-environment interactions. A soft wall-following rule is developed to improve the trajectory smoothness. Our method belongs to reactive planning, but environment properties are implicitly encoded. The total amount of robots in our method can be scaled up to any number. The performance improvement over a vanilla APF and RL method has been demonstrated via numerical simulations. Experiments are also performed using quadrotors to further illustrate the competence of our method.
arxiv情報
著者 | Dengyu Zhang,Xinyu Zhang,Zheng Zhang,Bo Zhu,Qingrui Zhang |
発行日 | 2023-07-26 11:13:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google