Mobile ALOHA: Learning Bimanual Mobile Manipulation with Low-Cost Whole-Body Teleoperation

要約

人間の実演から学ぶ模倣学習は、ロボット工学において目覚ましい成果を示している。しかし、ほとんどの結果はテーブル上での操作に焦点を当てており、一般的に有用なタスクに必要な機動性と器用さに欠けている。本研究では、両手持ちで全身制御を必要とする移動操作タスクを模倣するシステムを開発する。まず、データ収集のための低コスト・全身遠隔操作システムであるMobile ALOHAを紹介する。モバイルALOHAは、ALOHAシステムにモバイルベースと全身遠隔操作インターフェースを追加したものである。モバイルALOHAで収集したデータを用いて、教師あり行動クローニングを行い、既存の静的ALOHAデータセットとの協調学習により、移動操作タスクの性能が向上することを発見した。各タスクについて50回のデモンストレーションを行うことで、共同トレーニングは成功率を最大90%向上させることができ、Mobile ALOHAは、エビを炒めて盛り付ける、重い調理鍋を収納するために2ドアの壁面キャビネットを開ける、エレベーターを呼び出して乗り込む、キッチンの蛇口を使って使用済みのフライパンを軽くすすぐ、といった複雑な移動操作タスクを自律的に完了することができる。プロジェクトウェブサイト:https://mobile-aloha.github.io

要約(オリジナル)

Imitation learning from human demonstrations has shown impressive performance in robotics. However, most results focus on table-top manipulation, lacking the mobility and dexterity necessary for generally useful tasks. In this work, we develop a system for imitating mobile manipulation tasks that are bimanual and require whole-body control. We first present Mobile ALOHA, a low-cost and whole-body teleoperation system for data collection. It augments the ALOHA system with a mobile base, and a whole-body teleoperation interface. Using data collected with Mobile ALOHA, we then perform supervised behavior cloning and find that co-training with existing static ALOHA datasets boosts performance on mobile manipulation tasks. With 50 demonstrations for each task, co-training can increase success rates by up to 90%, allowing Mobile ALOHA to autonomously complete complex mobile manipulation tasks such as sauteing and serving a piece of shrimp, opening a two-door wall cabinet to store heavy cooking pots, calling and entering an elevator, and lightly rinsing a used pan using a kitchen faucet. Project website: https://mobile-aloha.github.io

arxiv情報

著者 Zipeng Fu,Tony Z. Zhao,Chelsea Finn
発行日 2024-01-04 07:55:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO, cs.SY, eess.SY パーマリンク