Purely vision-based collective movement of robots

要約

動物のグループにインスピレーションを得た集団運動は、センシングや効率の向上など、ロボットの群れに受け継がれる利点を約束します。
しかし、動物は局所的な感覚だけを使って集団で移動するのに対し、ロボットは中央制御に従うか、直接コミュニケーションを使用することが多く、群れに全身的な弱点をもたらします。
このような脆弱性に対処することを期待して、生物からインスピレーションを得た分散型群れの開発がここ数十年で大きな焦点となってきました。
しかし、局所的な感覚情報のみを使用して効率的に一緒に移動するロボットを作成することは、依然として並外れた課題です。
この作品では、分散型で純粋に視覚ベースの地上ロボットの群れを紹介します。
この新しいフレームワーク内で、ロボットは最小限の視覚的インタラクションのみによって衝突のない偏光した動きを実現し、個々のカメラ ストリームに基づいて搭載されたすべてのものを計算するため、中央処理や直接通信は時代遅れになります。
さらに、エージェントベースのシミュレーションにより、このモデルを使用すると、厳密に制限された視野や限られた空間内であっても、秩序あるグループの動きが現れる可能性があることを示し、同時に主要な制限も強調します。
私たちの成果は、共通の通信プロトコルを使用せずに集団の動きを調整するハイブリッド社会から、絶えず変化する環境で多様なタスクを実行できる高度な分散型ビジョンベースのロボット群に至るまで、多数の実用的な応用を提供します。

要約(オリジナル)

Collective movement inspired by animal groups promises inherited benefits for robot swarms, such as enhanced sensing and efficiency. However, while animals move in groups using only their local senses, robots often obey central control or use direct communication, introducing systemic weaknesses to the swarm. In the hope of addressing such vulnerabilities, developing bio-inspired decentralized swarms has been a major focus in recent decades. Yet, creating robots that move efficiently together using only local sensory information remains an extraordinary challenge. In this work, we present a decentralized, purely vision-based swarm of terrestrial robots. Within this novel framework robots achieve collisionless, polarized motion exclusively through minimal visual interactions, computing everything on board based on their individual camera streams, making central processing or direct communication obsolete. With agent-based simulations, we further show that using this model, even with a strictly limited field of view and within confined spaces, ordered group motion can emerge, while also highlighting key limitations. Our results offer a multitude of practical applications from hybrid societies coordinating collective movement without any common communication protocol, to advanced, decentralized vision-based robot swarms capable of diverse tasks in ever-changing environments.

arxiv情報

著者 David Mezey,Renaud Bastien,Yating Zheng,Neal McKee,David Stoll,Heiko Hamann,Pawel Romanczuk
発行日 2024-06-24 19:47:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク