Imagine2touch: Predictive Tactile Sensing for Robotic Manipulation using Efficient Low-Dimensional Signals

要約

人間は潜在的な接触信号を知覚に組み込んでいるようです。
私たちの目標は、Imagine2touch と名付けた同様の機能をロボットに装備することです。
Imagine2touch は、タッチされる領域を表す視覚的なパッチに基づいて、予想されるタッチ信号を予測することを目的としています。
私たちは、5 つの基本的な幾何学的形状と 1 つのツールをランダムにタッチすることで必要なデータセットを収集する、安価でコンパクトなタッチ センサーである ReSkin を使用します。
これらの形状のうち 2 つについて Imagine2touch をトレーニングし、実際にそれを検証します。
道具。
私たちは、Imagine2touch を物体認識の下流タスクに適用することで、その有効性を実証します。
このタスクでは、トレーニング配布オブジェクトのうち 5 つを合わせて 2 つの実験で Imagine2touch のパフォーマンスを評価します。
Imagine2touch は、オブジェクトごとに 10 回のタッチ後に 58% のオブジェクト認識精度を達成し、固有受容ベースラインを超えています。

要約(オリジナル)

Humans seemingly incorporate potential touch signals in their perception. Our goal is to equip robots with a similar capability, which we term Imagine2touch. Imagine2touch aims to predict the expected touch signal based on a visual patch representing the area to be touched. We use ReSkin, an inexpensive and compact touch sensor to collect the required dataset through random touching of five basic geometric shapes, and one tool. We train Imagine2touch on two out of those shapes and validate it on the ood. tool. We demonstrate the efficacy of Imagine2touch through its application to the downstream task of object recognition. In this task, we evaluate Imagine2touch performance in two experiments, together comprising 5 out of training distribution objects. Imagine2touch achieves an object recognition accuracy of 58% after ten touches per object, surpassing a proprioception baseline.

arxiv情報

著者 Abdallah Ayad,Adrian Röfer,Nick Heppert,Abhinav Valada
発行日 2024-05-02 11:33:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク