要約
デモンストレーションから学習することは、特に遠隔操作システムで最近収集された大規模なロボット データの場合、ロボット操作への効果的なアプローチであることが示されています。
多様なロボット プラットフォームにわたって効率的な遠隔操作システムを構築することが、これまで以上に重要になっています。
しかし、擬人化されたロボットのハンドやグリッパーなど、複数のプラットフォームにわたって動作できる、さまざまなエンドエフェクター用の、費用対効果が高く、ユーザーフレンドリーな遠隔操作システムが著しく不足しています。
この問題に対処するために、私たちは、低コストの器用な遠隔操作のためのクロスプラットフォームの視覚外骨格システムである ACE を開発しました。
当社のシステムは、手に面したカメラを利用して 3D 手のポーズとポータブル ベースに取り付けられた外骨格をキャプチャし、指と手首の両方のポーズを正確にリアルタイムでキャプチャできるようにします。
さまざまなロボットに応じてハードウェアのカスタマイズが必要になることが多かった従来のシステムと比較して、当社の単一システムは、高精度の遠隔操作を備えた人型ハンド、アームハンド、アームグリッパー、および四足グリッパーシステムに汎用化できます。
これにより、多様なプラットフォーム上で複雑な操作タスクの模倣学習が可能になります。
要約(オリジナル)
Learning from demonstrations has shown to be an effective approach to robotic manipulation, especially with the recently collected large-scale robot data with teleoperation systems. Building an efficient teleoperation system across diverse robot platforms has become more crucial than ever. However, there is a notable lack of cost-effective and user-friendly teleoperation systems for different end-effectors, e.g., anthropomorphic robot hands and grippers, that can operate across multiple platforms. To address this issue, we develop ACE, a cross-platform visual-exoskeleton system for low-cost dexterous teleoperation. Our system utilizes a hand-facing camera to capture 3D hand poses and an exoskeleton mounted on a portable base, enabling accurate real-time capture of both finger and wrist poses. Compared to previous systems, which often require hardware customization according to different robots, our single system can generalize to humanoid hands, arm-hands, arm-gripper, and quadruped-gripper systems with high-precision teleoperation. This enables imitation learning for complex manipulation tasks on diverse platforms.
arxiv情報
著者 | Shiqi Yang,Minghuan Liu,Yuzhe Qin,Runyu Ding,Jialong Li,Xuxin Cheng,Ruihan Yang,Sha Yi,Xiaolong Wang |
発行日 | 2024-08-21 17:48:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google