Transferring Tactile Data Across Sensors

要約

触覚は人間と環境との相互作用に不可欠であり、ロボット工学においてますます重要になっています。
BioTac のような触覚センサーは人間の指先を模倣し、詳細なインタラクション データを提供します。
このセンサーは滑り検出や物体識別などのアプリケーションで有用ですが、現在は非推奨となっており、多くの既存のデータセットが廃止されています。
この記事では、出力信号ではなくセンサーの変形情報を利用して、触覚センサー間でデータを変換する新しい方法を紹介します。
BioTac シグナルを DIGIT センサーに変換することで、このアプローチを実証します。
私たちのフレームワークは 3 つのステップで構成されています。まず、信号データを対応する 3D 変形メッシュに変換します。
2 番目に、これらの 3D 変形メッシュをあるセンサーから別のセンサーに変換します。
3 番目に、変換されたメッシュを使用して出力画像を生成します。
私たちのアプローチにより、貴重なデータセットの継続的な使用が可能になります。

要約(オリジナル)

Tactile perception is essential for human interaction with the environment and is becoming increasingly crucial in robotics. Tactile sensors like the BioTac mimic human fingertips and provide detailed interaction data. Despite its utility in applications like slip detection and object identification, this sensor is now deprecated, making many existing datasets obsolete. This article introduces a novel method for translating data between tactile sensors by exploiting sensor deformation information rather than output signals. We demonstrate the approach by translating BioTac signals into the DIGIT sensor. Our framework consists of three steps: first, converting signal data into corresponding 3D deformation meshes; second, translating these 3D deformation meshes from one sensor to another; and third, generating output images using the converted meshes. Our approach enables the continued use of valuable datasets.

arxiv情報

著者 Wadhah Zai El Amri,Malte Kuhlmann,Nicolás Navarro-Guerrero
発行日 2024-10-18 09:15:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク