DexForce: Extracting Force-informed Actions from Kinesthetic Demonstrations for Dexterous Manipulation

要約

模倣学習には、状態と動作のペアのシーケンスからなる高品質のデモンストレーションが必要です。
きめ細かい器用さを必要とする、接触が多い器用な操作タスクでは、これらの状態とアクションのペアのアクションが適切な力を生成する必要があります。
器用な操作のデモンストレーションを収集するために現在広く使用されている方法は、人間とロボットの動きのリターゲティングが直感的ではなく、直接的な触覚フィードバックが欠如しているため、接触の多いタスクのデモンストレーションに使用するのは困難です。
これを動機として、我々は、接触の多い器用な操作のデモンストレーションを収集するための方法である DexForce を提案します。
DexForce は、運動感覚のデモンストレーション中に測定された接触力を利用して、ポリシー学習のために力に基づいたアクションを計算します。
DexForce を使用して 6 つのタスクのデモンストレーションを収集し、フォース情報に基づくアクションに基づいてトレーニングされたポリシーがすべてのタスクで平均 76% の成功率を達成していることを示しました。
対照的に、接触力を考慮しないアクションに基づいて直接訓練された政策の成功率はほぼゼロです。
また、政策観察に武力データを含めることを排除する研究も行っています。
力のデータを使用しても政策のパフォーマンスが損なわれることはありませんが、AirPods のケースを開けたり、ナットを緩めたりするなど、高度なレベルの精度と調整が必要な作業に最も役立つことがわかりました。

要約(オリジナル)

Imitation learning requires high-quality demonstrations consisting of sequences of state-action pairs. For contact-rich dexterous manipulation tasks that require fine-grained dexterity, the actions in these state-action pairs must produce the right forces. Current widely-used methods for collecting dexterous manipulation demonstrations are difficult to use for demonstrating contact-rich tasks due to unintuitive human-to-robot motion retargeting and the lack of direct haptic feedback. Motivated by this, we propose DexForce, a method for collecting demonstrations of contact-rich dexterous manipulation. DexForce leverages contact forces, measured during kinesthetic demonstrations, to compute force-informed actions for policy learning. We use DexForce to collect demonstrations for six tasks and show that policies trained on our force-informed actions achieve an average success rate of 76% across all tasks. In contrast, policies trained directly on actions that do not account for contact forces have near-zero success rates. We also conduct a study ablating the inclusion of force data in policy observations. We find that while using force data never hurts policy performance, it helps the most for tasks that require an advanced level of precision and coordination, like opening an AirPods case and unscrewing a nut.

arxiv情報

著者 Claire Chen,Zhongchun Yu,Hojung Choi,Mark Cutkosky,Jeannette Bohg
発行日 2025-01-17 18:57:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク