Tactile-Filter: Interactive Tactile Perception for Part Mating

要約

人間は、多くの器用な操作タスクをタッチと触覚に依存しています。
私たちの触覚センシングは、接触形成に関する多くの情報と、相互作用中のオブジェクトに関する幾何学的情報を提供します。
この動機により、視覚ベースの触覚センサーは、さまざまなロボットの認識および制御タスクに広く使用されています。
この論文では、視覚ベースの触覚センサーを使用して複数のオブジェクトを組み立てるためのインタラクティブな知覚の方法を提示します。
特に、ロボットが触覚センサーと粒子フィルターを使用したフィードバックメカニズムを使用して、組み立てのために一緒に収まるオブジェクトの推定値を段階的に改善できる、パーツ嵌合時の触覚認識に関心があります。
これを行うには、最初に、触覚画像を利用して、互いに適合する任意の形状のオブジェクト間の確率論的対応を予測するディープ ニューラル ネットワークをトレーニングします。
訓練されたモデルは、二重に使用される粒子フィルターを設計するために使用されます。
まず、穴の 1 つの部分的な (または一意ではない) 観測が与えられると、より多くの触覚観測をサンプリングすることによって、正しいペグの推定値が段階的に改善されます。
次に、ロボットが次のタッチ (および画像) をサンプリングするための次のアクションを選択します。これにより、不確実性が最大に減少し、知覚タスク中の相互作用の数が最小限に抑えられます。
視覚ベースの触覚センサーを搭載したロボットを使用して、組み立てのためのいくつかの部品嵌合タスクでこの方法を評価します。
また、単純な方法に対する提案されたアクション選択方法の効率も示します。
https://www.youtube.com/watch?v=jMVBg_e3gLw で補足ビデオを参照してください。

要約(オリジナル)

Humans rely on touch and tactile sensing for a lot of dexterous manipulation tasks. Our tactile sensing provides us with a lot of information regarding contact formations as well as geometric information about objects during any interaction. With this motivation, vision-based tactile sensors are being widely used for various robotic perception and control tasks. In this paper, we present a method for interactive perception using vision-based tactile sensors for multi-object assembly. In particular, we are interested in tactile perception during part mating, where a robot can use tactile sensors and a feedback mechanism using particle filter to incrementally improve its estimate of objects that fit together for assembly. To do this, we first train a deep neural network that makes use of tactile images to predict the probabilistic correspondence between arbitrarily shaped objects that fit together. The trained model is used to design a particle filter which is used twofold. First, given one partial (or non-unique) observation of the hole, it incrementally improves the estimate of the correct peg by sampling more tactile observations. Second, it selects the next action for the robot to sample the next touch (and thus image) which results in maximum uncertainty reduction to minimize the number of interactions during the perception task. We evaluate our method on several part-mating tasks for assembly using a robot equipped with a vision-based tactile sensor. We also show the efficiency of the proposed action selection method against a naive method. See supplementary video at https://www.youtube.com/watch?v=jMVBg_e3gLw .

arxiv情報

著者 Kei Ota,Devesh K. Jha,Hsiao-Yu Tung,Joshua B. Tenenbaum
発行日 2023-03-10 16:27:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク