要約
脚式ロボットは、複雑な 3D 地形を移動する際に固有の利点を備えています。
しかし、自己中心ビジョンシステムを備えた低コストの四足ロボットに関するこれまでの研究は、狭い正面視界と外受容ノイズによって制限されており、そのような環境での全方向の移動性が制限されていました。
階層構造を通じてボクセル マップを構築すると外受容処理を改善できますが、大幅な計算オーバーヘッド、ノイズ、遅延が発生します。
この論文では、実際の動物ができることと同じように、3D 環境で限られた視野でマルチスキルの全方向脚移動を可能にする 1 段階のエンドツーエンド学習フレームワークである MOVE を紹介します。
動きがロボットの視線と一致すると、外受容的な知覚によって移動が強化され、極端な登りや跳躍が可能になります。
視界が遮られたり、移動方向がロボットの視野の外にある場合、ロボットは固有受容に頼って、這ったり階段を登ったりするなどの作業を行います。
私たちは、教師あり学習と対照学習を組み合わせた擬似シャム ネットワーク構造を導入することで、これらすべてのスキルを単一のニューラル ネットワークに統合し、ロボットが視野を超えて周囲の環境を推測できるようにします。
シミュレーションと現実世界のシナリオの両方での実験は、私たちの方法の堅牢性を実証し、自己中心的なビジョンを持つロボット工学の運用環境を広げます。
要約(オリジナル)
Legged robots possess inherent advantages in traversing complex 3D terrains. However, previous work on low-cost quadruped robots with egocentric vision systems has been limited by a narrow front-facing view and exteroceptive noise, restricting omnidirectional mobility in such environments. While building a voxel map through a hierarchical structure can refine exteroception processing, it introduces significant computational overhead, noise, and delays. In this paper, we present MOVE, a one-stage end-to-end learning framework capable of multi-skill omnidirectional legged locomotion with limited view in 3D environments, just like what a real animal can do. When movement aligns with the robot’s line of sight, exteroceptive perception enhances locomotion, enabling extreme climbing and leaping. When vision is obstructed or the direction of movement lies outside the robot’s field of view, the robot relies on proprioception for tasks like crawling and climbing stairs. We integrate all these skills into a single neural network by introducing a pseudo-siamese network structure combining supervised and contrastive learning which helps the robot infer its surroundings beyond its field of view. Experiments in both simulations and real-world scenarios demonstrate the robustness of our method, broadening the operational environments for robotics with egocentric vision.
arxiv情報
著者 | Songbo Li,Shixin Luo,Jun Wu,Qiuguo Zhu |
発行日 | 2024-12-04 14:36:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google