TactoFind: A Tactile Only System for Object Retrieval

要約

視覚センシングが存在せず、オブジェクトの形状が事前に不明であり、オブジェクトが引き出しからオブジェクトをつかむように自由に移動できるシナリオでのオブジェクト検索の問題を研究します。
解決策を成功させるには、フリー オブジェクトをローカライズし、特定のオブジェクト インスタンスを識別し、識別されたオブジェクトをタッチ フィードバックのみを使用して把握する必要があります。
カメラがシーン全体を観察できるビジョンとは異なり、タッチ センサーはローカルであり、マニピュレーターと接触しているシーンの部分のみを観察します。
さらに、タッチセンサーを介した情報収集では、タッチした表面に力を加える必要があり、シーン自体を乱す可能性があります。
したがって、触覚による推論には、時間をかけて慎重に調査し、情報を統合する必要があります。これは、私たちが取り組む課題です。
器用な手の指先タッチセンサーからのまばらな触覚フィードバックを使用して、視覚的なフィードバックなしで新しいオブジェクトをローカライズ、識別、および把握できるシステムを提示します。
ビデオは https://taochenshh.github.io/projects/tactofind で入手できます。

要約(オリジナル)

We study the problem of object retrieval in scenarios where visual sensing is absent, object shapes are unknown beforehand and objects can move freely, like grabbing objects out of a drawer. Successful solutions require localizing free objects, identifying specific object instances, and then grasping the identified objects, only using touch feedback. Unlike vision, where cameras can observe the entire scene, touch sensors are local and only observe parts of the scene that are in contact with the manipulator. Moreover, information gathering via touch sensors necessitates applying forces on the touched surface which may disturb the scene itself. Reasoning with touch, therefore, requires careful exploration and integration of information over time — a challenge we tackle. We present a system capable of using sparse tactile feedback from fingertip touch sensors on a dexterous hand to localize, identify and grasp novel objects without any visual feedback. Videos are available at https://taochenshh.github.io/projects/tactofind.

arxiv情報

著者 Sameer Pai,Tao Chen,Megha Tippur,Edward Adelson,Abhishek Gupta,Pulkit Agrawal
発行日 2023-03-23 17:50:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク