ACROSS: A Deformation-Based Cross-Modal Representation for Robotic Tactile Perception

要約

触覚は、環境との人間の相互作用に不可欠であり、ロボット工学でますます重要になっています。
BioTACなどの触覚センサーは、人間の指先を模倣し、詳細な相互作用データを提供します。
スリップ検出やオブジェクトの識別などのアプリケーションでの有用性にもかかわらず、このセンサーは非推奨になり、多くの貴重なデータセットが時代遅れになっています。
ただし、新しいセンサーテクノロジーを使用して同様のデータセットを再作成することは、退屈で時間がかかります。
したがって、これらの既存のデータセットを新しいセットアップとモダリティで使用することが重要です。
これに応じて、センサーの変形情報を活用することにより、触覚センサー間でデータを翻訳するための新しいフレームワークを紹介します。
BioTAC信号を桁センサーに変換することにより、アプローチを実証します。
私たちのフレームワークは、最初に入力信号を3D変形メッシュに変換することで構成されています。
次に、1つのセンサーの3D変形メッシュから別のセンサーのメッシュに移行し、最後に生成された3D変形メッシュを対応する出力空間に変換します。
私たちは、低次元の触覚表現から高次元の表現へと進むという最も困難な問題へのアプローチを実証します。
特に、BioTACセンサーの触覚信号を触覚画像に移します。
当社のアプローチにより、貴重なデータセットを継続的に使用し、異なるセットアップを持つグループ間のデータ交換が可能になります。

要約(オリジナル)

Tactile perception is essential for human interaction with the environment and is becoming increasingly crucial in robotics. Tactile sensors like the BioTac mimic human fingertips and provide detailed interaction data. Despite its utility in applications like slip detection and object identification, this sensor is now deprecated, making many valuable datasets obsolete. However, recreating similar datasets with newer sensor technologies is both tedious and time-consuming. Therefore, adapting these existing datasets for use with new setups and modalities is crucial. In response, we introduce ACROSS, a novel framework for translating data between tactile sensors by exploiting sensor deformation information. We demonstrate the approach by translating BioTac signals into the DIGIT sensor. Our framework consists of first converting the input signals into 3D deformation meshes. We then transition from the 3D deformation mesh of one sensor to the mesh of another, and finally convert the generated 3D deformation mesh into the corresponding output space. We demonstrate our approach to the most challenging problem of going from a low-dimensional tactile representation to a high-dimensional one. In particular, we transfer the tactile signals of a BioTac sensor to DIGIT tactile images. Our approach enables the continued use of valuable datasets and data exchange between groups with different setups.

arxiv情報

著者 Wadhah Zai El Amri,Malte Kuhlmann,Nicolás Navarro-Guerrero
発行日 2025-02-19 17:08:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク