Action Conditioned Tactile Prediction: case study on slip prediction

要約

触覚予測モデルは、いくつかのロボット操作タスクにわたって役立ちます。
ロボットによる押し込み、ロボットによる掴み、滑りの回避、および手の中での操作。
ただし、利用可能な触覚予測モデルは主に画像ベースの触覚センサー向けに研究されており、最も優れたパフォーマンスを示すモデルを示す比較研究はありません。
この論文では、現実世界の物理的なロボットのインタラクションタスク中に触覚信号を予測するための 2 つの新しいデータ駆動型アクション条件付きモデル (1) アクション条件付き触覚予測モデルと (2) アクション条件付き触覚ビデオ予測モデルを紹介しました。
当社では、最先端の予測モデルと既存の唯一の特注触覚予測モデルの分析とテストが困難な磁気ベースの触覚センサーを使用しています。
これらのモデルのパフォーマンスを、私たちが提案するモデルのパフォーマンスと比較します。
私たちは、11 の平らな表面の家庭用物品を使用した現実世界のロボット操作タスクの 51,000 個の触覚フレームを含む、新しい触覚対応データセットを使用して比較研究を実行します。
実験結果は、定性的、定量的、滑り予測スコアの点で、提案した触覚予測モデルの優位性を示しています。

要約(オリジナル)

Tactile predictive models can be useful across several robotic manipulation tasks, e.g. robotic pushing, robotic grasping, slip avoidance, and in-hand manipulation. However, available tactile prediction models are mostly studied for image-based tactile sensors and there is no comparison study indicating the best performing models. In this paper, we presented two novel data-driven action-conditioned models for predicting tactile signals during real-world physical robot interaction tasks (1) action condition tactile prediction and (2) action conditioned tactile-video prediction models. We use a magnetic-based tactile sensor that is challenging to analyse and test state-of-the-art predictive models and the only existing bespoke tactile prediction model. We compare the performance of these models with those of our proposed models. We perform the comparison study using our novel tactile-enabled dataset containing 51,000 tactile frames of a real-world robotic manipulation task with 11 flat-surfaced household objects. Our experimental results demonstrate the superiority of our proposed tactile prediction models in terms of qualitative, quantitative and slip prediction scores.

arxiv情報

著者 Willow Mandil,Kiyanoush Nazari,Amir Ghalamzan E
発行日 2024-05-10 08:58:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク