要約
ビジョンベースの遠隔操作は、低コストのカメラセンサーを必要とするだけで、ロボットに人間レベルの知能を与え、環境と物理的に相互作用させる可能性を提供する。しかし、現在のビジョンベースの遠隔操作システムは、特定のロボットモデルと展開環境に向けて設計され、設計されているため、ロボットモデルのプールが拡大し、動作環境の多様性が増加すると、スケールが悪くなります。本論文では、単一のシステム内で複数の異なるアーム、ハンド、現実性、およびカメラ構成をサポートする、統一された汎用遠隔操作システムであるAnyTeleopを提案する。シミュレータや実ハードウェアの選択に大きな柔軟性を提供するように設計されていますが、本システムは依然として大きな性能を達成することができます。実際の実験では、AnyTeleopは、同じロボットを使用して、特定のロボットハードウェア用に設計された以前のシステムよりも高い成功率で上回ることができます。シミュレーションにおける遠隔操作では、AnyTeleopは、そのシミュレータのために特別に設計された以前のシステムと比較して、より良い模倣学習性能につながります。プロジェクトページ:http://anyteleop.com/。
要約(オリジナル)
Vision-based teleoperation offers the possibility to endow robots with human-level intelligence to physically interact with the environment, while only requiring low-cost camera sensors. However, current vision-based teleoperation systems are designed and engineered towards a particular robot model and deploy environment, which scales poorly as the pool of the robot models expands and the variety of the operating environment increases. In this paper, we propose AnyTeleop, a unified and general teleoperation system to support multiple different arms, hands, realities, and camera configurations within a single system. Although being designed to provide great flexibility to the choice of simulators and real hardware, our system can still achieve great performance. For real-world experiments, AnyTeleop can outperform a previous system that was designed for a specific robot hardware with a higher success rate, using the same robot. For teleoperation in simulation, AnyTeleop leads to better imitation learning performance, compared with a previous system that is particularly designed for that simulator. Project page: http://anyteleop.com/.
arxiv情報
著者 | Yuzhe Qin,Wei Yang,Binghao Huang,Karl Van Wyk,Hao Su,Xiaolong Wang,Yu-Wei Chao,Dieter Fox |
発行日 | 2023-08-02 22:14:06+00:00 |
arxivサイト | arxiv_id(pdf) |