On Hand-Held Grippers and the Morphological Gap in Human Manipulation Demonstration

要約

ロボットのハードウェアで操作のデモンストレーションを収集するのは面倒で、そのため規模を拡大するのが難しい。ロボットのハードウェアにデータを記録することで、Learning from Demonstrations(LfD)メソッドに適した形式になります。対照的に、人間は熟練したマニピュレーターであり、彼らの行動を記録することは容易であるが、そのデータ形式をLfD手法で使用することは困難である。私たちは、人間の操作を記録するという魅力的な特徴を保ちながら、LfDで使用できるフォーマットでデータを収集する方法はないかと考えている。我々は、人間に手持ち式の平行グリッパーとヘッドマウントカメラを装備させ、操作タスクのデモンストレーションを記録することを提案する。カスタマイズされた再現可能なグリッパーを用いて、一般的な操作タスクの初期データセットを収集する。我々は、最初の直感に反して、パラレルグリッパーを使用して実行できるタスクがあることを示す。人間の手とグリッパーでタスクを完了するために使用される戦略を比較することで、形態の違いがLfDに与える影響について定性的な洞察を得る。我々のデータ収集方法は、ロボットと人間のネイティブな操作デモンストレーションのギャップを埋めるものである。私たちのグリッパーのプロトタイプの設計を公開することで、他の研究者が操作データを収集する労力を軽減できることを期待している。

要約(オリジナル)

Collecting manipulation demonstrations with robotic hardware is tedious – and thus difficult to scale. Recording data on robot hardware ensures that it is in the appropriate format for Learning from Demonstrations (LfD) methods. By contrast, humans are proficient manipulators, and recording their actions would be easy to scale, but it is challenging to use that data format with LfD methods. The question we explore is whether there is a method to collect data in a format that can be used with LfD while retaining some of the attractive features of recording human manipulation. We propose equipping humans with hand-held, hand-actuated parallel grippers and a head-mounted camera to record demonstrations of manipulation tasks. Using customised and reproducible grippers, we collect an initial dataset of common manipulation tasks. We show that there are tasks that, against our initial intuition, can be performed using parallel grippers. Qualitative insights are obtained regarding the impact of the difference in morphology on LfD by comparing the strategies used to complete tasks with human hands and grippers. Our data collection method bridges the gap between robot- and human-native manipulation demonstration. By making the design of our gripper prototype available, we hope to reduce other researchers effort to collect manipulation data.

arxiv情報

著者 Kiran Doshi,Yijiang Huang,Stelian Coros
発行日 2023-11-03 10:39:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク