要約
集団運動の実装は伝統的に、個人の限られた感知能力を無視し、その代わりに環境の全知的な認識を前提としています。
この研究では、「ロボット・イン・ザ・ループ」アプローチで視覚的な群れモデルを実装し、10 台の独立した球形ロボットで構成される群れでこれらの行動を再現します。
このモデルは、隣接するロボットの網膜位置、光学サイズ、オプティックフローなど、各ロボットのパノラマ視覚情報のみを使用してロボットの集団動作を実現します。
仮想アンカーを導入してロボットの集団的な動きを制限し、壁との相互作用を回避します。
シンプルな視覚的なロボットインザループ手法により、いくつかの集団運動フェーズ、特に群れとミリングを再現することに初めて成功しました。
このモデルによって達成されたもう 1 つのマイルストーンは、同じ視覚的モデルを使用して両方の環境でほぼ同一の動作を実証することで、シミュレーションと物理実験の間のギャップを埋めることです。
結論として、私たちの最小限の視覚集団運動モデルは、スケーラブルで数値シミュレーションの予測どおりに動作し、従来のモデルと容易に比較できるロボットインザループ システム上でほとんどの集団行動を再現するのに十分であることを示します。
要約(オリジナル)
The implementation of collective motion, traditionally, disregard the limited sensing capabilities of an individual, to instead assuming an omniscient perception of the environment. This study implements a visual flocking model in a “robot-in-the-loop” approach to reproduce these behaviors with a flock composed of 10 independent spherical robots. The model achieves robotic collective motion by only using panoramic visual information of each robot, such as retinal position, optical size and optic flow of the neighboring robots. We introduce a virtual anchor to confine the collective robotic movements so to avoid wall interactions. For the first time, a simple visual robot-in-the-loop approach succeed in reproducing several collective motion phases, in particular, swarming, and milling. Another milestone achieved with by this model is bridging the gap between simulation and physical experiments by demonstrating nearly identical behaviors in both environments with the same visual model. To conclude, we show that our minimal visual collective motion model is sufficient to recreate most collective behaviors on a robot-in-the-loop system that is scalable, behaves as numerical simulations predict and is easily comparable to traditional models.
arxiv情報
著者 | Diego Castro,Christophe Eloy,Franck Ruffier |
発行日 | 2024-09-30 17:41:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google