要約
現実世界で豊かで器用な操作を行うための鍵は、両手で制御を調整する能力です。
しかし、双腕ロボット システムによって得られる可能性は計り知れないものですが、双腕自律システムの制御ポリシーの構築には固有の困難が伴います。
そのような問題の 1 つは、両手操作のアクション空間の高次元性であり、これによりモデルベースの手法とデータ駆動型の手法の両方が複雑になります。
私たちは人間からインスピレーションを得て、新しい役割割り当てフレームワークを提案することでこの課題に対抗します。つまり、安定化アームが物体を所定の位置に保持して環境を簡素化し、その間に動作アームがタスクを実行します。
このフレームワークを BimanUal Dexterity from Stabilization (BUDS) でインスタンス化します。BUDS は、学習された再安定化分類子を使用して、環境を変化させないように学習した安定化位置を更新することと、デモンストレーションから学習した動作ポリシーを使用してタスクを達成することを交互に行います。
私たちは、ジャケットのジッパーを閉めたり、野菜を切ったりするなど、実際のロボット上で複雑さの異なる 4 つの両手タスクで BUDS を評価しました。
わずか 20 件のデモンストレーションを行うと、BUDS はタスク スイート全体で 76.9% のタスク成功率を達成し、クラス内の配布外のオブジェクトに一般化して 52.7% の成功率を達成しました。
BUDS は、これらの複雑なタスクに必要な精度により、代わりに BC 安定化ポリシーを学習する非構造化ベースラインよりも 56.0% 成功率が高くなります。
補足資料とビデオは https://sites.google.com/view/stabilizetoact でご覧いただけます。
要約(オリジナル)
Key to rich, dexterous manipulation in the real world is the ability to coordinate control across two hands. However, while the promise afforded by bimanual robotic systems is immense, constructing control policies for dual arm autonomous systems brings inherent difficulties. One such difficulty is the high-dimensionality of the bimanual action space, which adds complexity to both model-based and data-driven methods. We counteract this challenge by drawing inspiration from humans to propose a novel role assignment framework: a stabilizing arm holds an object in place to simplify the environment while an acting arm executes the task. We instantiate this framework with BimanUal Dexterity from Stabilization (BUDS), which uses a learned restabilizing classifier to alternate between updating a learned stabilization position to keep the environment unchanged, and accomplishing the task with an acting policy learned from demonstrations. We evaluate BUDS on four bimanual tasks of varying complexities on real-world robots, such as zipping jackets and cutting vegetables. Given only 20 demonstrations, BUDS achieves 76.9% task success across our task suite, and generalizes to out-of-distribution objects within a class with a 52.7% success rate. BUDS is 56.0% more successful than an unstructured baseline that instead learns a BC stabilizing policy due to the precision required of these complex tasks. Supplementary material and videos can be found at https://sites.google.com/view/stabilizetoact .
arxiv情報
著者 | Jennifer Grannen,Yilin Wu,Brandon Vu,Dorsa Sadigh |
発行日 | 2023-10-28 21:49:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google