要約
エンドツーエンドのロボット ポリシーを学習するために使用されるロボットの軌道には、通常、エンドエフェクターとグリッパーの位置、ワークスペースの画像、および言語が含まれます。
このような軌道から学習したポリシーは、厳密に結合された正確なグリッパー力とグリッパー位置を必要とする繊細な把握には適していません。
私たちは、30 個の固有の物体の成功した把握の力フィードバックを含む 130 個の軌道を収集し、公開しています。
力を感知するための当社の電流ベースの方法は、ノイズは多いものの、グリッパーに依存せず、追加のハードウェアを必要としません。
私たちは 2 つの拡散ポリシーを訓練し、評価します。1 つは収集されたフォース フィードバックを (強制的に) 使用するもの、もう 1 つは使用しない (位置のみ) です。
強制的なポリシーは、微妙な把握に関しては位置のみのポリシーよりも優れており、LLM ベースの手法と比較して、把握ポリシーの待ち時間を 4 倍近く削減しながら、目に見えない繊細なオブジェクトに一般化できることがわかりました。
限られたデータで有望な結果が得られたことで、私たちは他の人たちに、力やその他の触覚情報を新しいデータセットに収集することへの投資を検討するよう信号を送り、将来のロボット基礎モデルでより堅牢で接触の多い操作を可能にしたいと考えています。
データ、コード、モデル、ビデオは https://justaddforce.github.io/ でご覧いただけます。
要約(オリジナル)
Robot trajectories used for learning end-to-end robot policies typically contain end-effector and gripper position, workspace images, and language. Policies learned from such trajectories are unsuitable for delicate grasping, which require tightly coupled and precise gripper force and gripper position. We collect and make publically available 130 trajectories with force feedback of successful grasps on 30 unique objects. Our current-based method for sensing force, albeit noisy, is gripper-agnostic and requires no additional hardware. We train and evaluate two diffusion policies: one with (forceful) the collected force feedback and one without (position-only). We find that forceful policies are superior to position-only policies for delicate grasping and are able to generalize to unseen delicate objects, while reducing grasp policy latency by near 4x, relative to LLM-based methods. With our promising results on limited data, we hope to signal to others to consider investing in collecting force and other such tactile information in new datasets, enabling more robust, contact-rich manipulation in future robot foundation models. Our data, code, models, and videos are viewable at https://justaddforce.github.io/.
arxiv情報
著者 | William Xie,Stefan Caldararu,Nikolaus Correll |
発行日 | 2024-10-17 01:27:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google