要約
模倣学習には、状態行動ペアのシーケンスで構成される高品質のデモンストレーションが必要です。
器用さを必要とする接触豊富な器用な操作タスクの場合、これらの状態行動ペアの行動は正しい力を生み出す必要があります。
器用な操作デモンストレーションを収集するための現在の広く使用されている方法は、直感的ではない人間からロボットの動きのリターゲティングと直接的な触覚フィードバックの欠如により、接触豊富なタスクを実証するために使用するのが困難です。
これらの懸念に動機付けられて、私たちはdexforceを提案します。
DexForceは、運動感覚のデモ中に測定された接触力を活用して、政策学習のための力に基づいたアクションを計算します。
6つのタスクのデモを収集し、フォースに基づいたアクションで訓練されたポリシーが、すべてのタスクで平均成功率76%を達成することを示しています。
対照的に、接触力を考慮していない行動について直接訓練されたポリシーは、ほぼゼロの成功率を持っています。
また、政策観察に力データを含めることを除去する研究を実施します。
フォースデータを使用することは決してポリシーのパフォーマンスを損なうことはありませんが、AirPodsケースを開いたり、ナットを外したりするなど、高度なレベルの精度と調整を必要とするタスクに最も役立つことがわかります。
要約(オリジナル)
Imitation learning requires high-quality demonstrations consisting of sequences of state-action pairs. For contact-rich dexterous manipulation tasks that require dexterity, the actions in these state-action pairs must produce the right forces. Current widely-used methods for collecting dexterous manipulation demonstrations are difficult to use for demonstrating contact-rich tasks due to unintuitive human-to-robot motion retargeting and the lack of direct haptic feedback. Motivated by these concerns, we propose DexForce. DexForce leverages contact forces, measured during kinesthetic demonstrations, to compute force-informed actions for policy learning. We collect demonstrations for six tasks and show that policies trained on our force-informed actions achieve an average success rate of 76% across all tasks. In contrast, policies trained directly on actions that do not account for contact forces have near-zero success rates. We also conduct a study ablating the inclusion of force data in policy observations. We find that while using force data never hurts policy performance, it helps most for tasks that require advanced levels of precision and coordination, like opening an AirPods case and unscrewing a nut.
arxiv情報
著者 | Claire Chen,Zhongchun Yu,Hojung Choi,Mark Cutkosky,Jeannette Bohg |
発行日 | 2025-03-27 03:53:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google