Tactile-Filter: Interactive Tactile Perception for Part Mating

要約

人間は、多くの器用な操作作業を触覚や触覚に頼っています。触覚は、物体の幾何学的な情報だけでなく、接触形態に関する多くの情報を、あらゆる相互作用の中で私たちに与えてくれます。このような動機から、視覚ベースの触覚センサは、様々なロボットの知覚と制御タスクに広く使用されている。本論文では、ロボットが触覚センサとパーティクルフィルタを用いたフィードバック機構を用いて、互いに合う物体(ペグと穴)の推定値を段階的に改善する、部品嵌合タスクのための視覚ベースの触覚センサを用いた対話型知覚の方法を紹介する。そのために、まず、触覚画像を利用して、任意形状の物体が嵌合する確率的な対応関係を予測するディープニューラルネットワークを学習させる。学習されたモデルは、2つの方法で使用されるパーティクルフィルターを設計するために使用されます。まず、穴の部分的な(または一意でない)観察が1つ与えられると、より多くの触覚の観察をサンプリングすることによって、正しいペグの推定値を段階的に向上させる。第二に、ロボットの次の行動を選択し、次の触覚(ひいては画像)をサンプリングすることで、知覚タスク中の相互作用の回数を最小化し、不確実性を最大化する。我々は、視覚ベースの触覚センサを搭載したロボットを用いて、新規オブジェクトを用いたいくつかの部品嵌合タスクで本方法を評価した。また、提案する行動選択法がナイーブな方法に対して効率的であることを示す。https://www.youtube.com/watch?v=jMVBg_e3gLw の補足ビデオをご覧ください。

要約(オリジナル)

Humans rely on touch and tactile sensing for a lot of dexterous manipulation tasks. Our tactile sensing provides us with a lot of information regarding contact formations as well as geometric information about objects during any interaction. With this motivation, vision-based tactile sensors are being widely used for various robotic perception and control tasks. In this paper, we present a method for interactive perception using vision-based tactile sensors for a part mating task, where a robot can use tactile sensors and a feedback mechanism using a particle filter to incrementally improve its estimate of objects (pegs and holes) that fit together. To do this, we first train a deep neural network that makes use of tactile images to predict the probabilistic correspondence between arbitrarily shaped objects that fit together. The trained model is used to design a particle filter which is used twofold. First, given one partial (or non-unique) observation of the hole, it incrementally improves the estimate of the correct peg by sampling more tactile observations. Second, it selects the next action for the robot to sample the next touch (and thus image) which results in maximum uncertainty reduction to minimize the number of interactions during the perception task. We evaluate our method on several part-mating tasks with novel objects using a robot equipped with a vision-based tactile sensor. We also show the efficiency of the proposed action selection method against a naive method. See supplementary video at https://www.youtube.com/watch?v=jMVBg_e3gLw .

arxiv情報

著者 Kei Ota,Devesh K. Jha,Hsiao-Yu Tung,Joshua B. Tenenbaum
発行日 2023-06-05 13:44:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク