Touch-to-Touch Translation — Learning the Mapping Between Heterogeneous Tactile Sensing Technologies

要約

最近、触覚データの処理と分類のためのデータ駆動型技術の使用が増加しています。
ただし、触覚データの収集は時間のかかる、センサー固有の手順です。
実際、触覚センシングにはハードウェア標準が存在しないため、異なるセンサーごとにデータを収集する必要があります。
この論文では、同じ物理的刺激に関する 2 つの触覚センサー出力間のマッピングを学習する問題について考察します。この問題をタッチツータッチ変換と呼びます。
この点で、私たちはこのタスクに対処する 2 つのデータ駆動型アプローチを提案し、それらのパフォーマンスを比較しました。
1 つ目は、画像から画像への変換のために開発され、このコンテキストに適応された生成モデルを利用します。
2 つ目は、回帰タスクを実行するようにトレーニングされた ResNet モデルを使用します。
私たちは、カメラ ベースの Digit と静電容量ベースの CySkin という 2 つのまったく異なる触覚センサーを使用して、両方の方法を検証しました。
特に、Digit 画像を使用して、対応する CySkin データを生成しました。
私たちは、一般的な大きな物体に見られる一連の触覚特徴に基づいてモデルをトレーニングし、これまでに見たことのない一連のデータに対してテストを実行しました。
実験結果は、接触形状を保存することにより、センサー応答の大きさに 15.18% の誤差を伴う Digit イメージを CySkin 出力に変換できる可能性を示しています。

要約(オリジナル)

The use of data-driven techniques for tactile data processing and classification has recently increased. However, collecting tactile data is a time-expensive and sensor-specific procedure. Indeed, due to the lack of hardware standards in tactile sensing, data is required to be collected for each different sensor. This paper considers the problem of learning the mapping between two tactile sensor outputs with respect to the same physical stimulus — we refer to this problem as touch-to-touch translation. In this respect, we proposed two data-driven approaches to address this task and we compared their performance. The first one exploits a generative model developed for image-to-image translation and adapted for this context. The second one uses a ResNet model trained to perform a regression task. We validated both methods using two completely different tactile sensors — a camera-based, Digit and a capacitance-based, CySkin. In particular, we used Digit images to generate the corresponding CySkin data. We trained the models on a set of tactile features that can be found in common larger objects and we performed the testing on a previously unseen set of data. Experimental results show the possibility of translating Digit images into the CySkin output by preserving the contact shape and with an error of 15.18% in the magnitude of the sensor responses.

arxiv情報

著者 Francesco Grella,Alessandro Albini,Giorgio Cannata,Perla Maiolino
発行日 2024-11-04 15:41:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク