Enabling Robot Manipulation of Soft and Rigid Objects with Vision-based Tactile Sensors

要約

ロボットに触覚機能を与えることで、壊れやすい物体や柔らかい物体を扱う能力など、ロボットと環境との相互作用に新たな可能性が開かれます。
この研究では、ロボットグリッパーに低コストの視覚ベースの触覚センサーを装備し、物体の特性に関する知識を必要とせずに硬い物体と柔らかい物の両方に適応する操作アルゴリズムを提案します。
このアルゴリズムは、参照画像に対する触覚画像の変化を考慮するタッチおよびスリップ検出方法に依存しています。
私たちは、剛性と脆弱性の点で異なる特性を持つ 7 つの異なる物体に対して、プラグを抜いたり持ち上げたりするタスクを実行するアプローチを検証します。
さらに、適用性を高めるために、操作アルゴリズムを把握サンプラーと組み合わせて、ブドウを傷つけることなく房からブドウを見つけて摘み取るタスクを実行します。

要約(オリジナル)

Endowing robots with tactile capabilities opens up new possibilities for their interaction with the environment, including the ability to handle fragile and/or soft objects. In this work, we equip the robot gripper with low-cost vision-based tactile sensors and propose a manipulation algorithm that adapts to both rigid and soft objects without requiring any knowledge of their properties. The algorithm relies on a touch and slip detection method, which considers the variation in the tactile images with respect to reference ones. We validate the approach on seven different objects, with different properties in terms of rigidity and fragility, to perform unplugging and lifting tasks. Furthermore, to enhance applicability, we combine the manipulation algorithm with a grasp sampler for the task of finding and picking a grape from a bunch without damaging~it.

arxiv情報

著者 Michael C. Welle,Martina Lippi,Haofei Lu,Jens Lundell,Andrea Gasparri,Danica Kragic
発行日 2023-06-09 10:08:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク