要約
マルチエージェント・ナビゲーションの分野では、広範な研究が行われてきた。近年、知能とリアリズムを大幅に向上させた学習ベースの技術が登場し、目覚ましい進歩を遂げている。それにもかかわらず、一般的な学習モデルは、主にそのエージェント中心の性質、すなわち学習されたニューラルポリシーが各エージェントに個別に展開されることに起因する、スケーラビリティと有効性の点で限界に直面している。実世界の交通ネットワークで観測された効率に触発され、我々は環境中心のナビゲーション方針を提示する。本手法は、基本的な衝突回避能力しか持たない膨大な数の非知的エージェントを調整するために、一組の交通ルールを学習する。本手法は、環境を異なるブロックに分割し、ブロックネットワーク上のグラフ・リカレント・ニューラル・ネットワーク(GRNN)を用いて交通ルールをパラメータ化する。各GRNNノードはエージェントが通過する際の速度を調節するように学習される。模倣学習(IL)または強化学習(RL)スキームを用いて、実世界の交通規制に近い、エージェントの混雑を解決するためのニューラル交通ルールの有効性を実証する。本手法は、最大240$のエージェントをリアルタイムで処理し、多様なエージェントと環境の構成に対して一般化する。
要約(オリジナル)
Extensive research has been devoted to the field of multi-agent navigation. Recently, there has been remarkable progress attributed to the emergence of learning-based techniques with substantially elevated intelligence and realism. Nonetheless, prevailing learned models face limitations in terms of scalability and effectiveness, primarily due to their agent-centric nature, i.e., the learned neural policy is individually deployed on each agent. Inspired by the efficiency observed in real-world traffic networks, we present an environment-centric navigation policy. Our method learns a set of traffic rules to coordinate a vast group of unintelligent agents that possess only basic collision-avoidance capabilities. Our method segments the environment into distinct blocks and parameterizes the traffic rule using a Graph Recurrent Neural Network (GRNN) over the block network. Each GRNN node is trained to modulate the velocities of agents as they traverse through. Using either Imitation Learning (IL) or Reinforcement Learning (RL) schemes, we demonstrate the efficacy of our neural traffic rules in resolving agent congestion, closely resembling real-world traffic regulations. Our method handles up to $240$ agents at real-time and generalizes across diverse agent and environment configurations.
arxiv情報
著者 | Xuan Zhang,Xifeng Gao,Kui Wu,Zherong Pan |
発行日 | 2023-12-03 20:06:43+00:00 |
arxivサイト | arxiv_id(pdf) |