TEXterity: Tactile Extrinsic deXterity

要約

触覚推定と手元物体操作制御を組み合わせた新しいアプローチを紹介します。
ロボットの運動学と画像ベースの触覚センサーからの測定を統合することにより、私たちのフレームワークは物体の姿勢を推定して追跡すると同時に、掴んだ物体の姿勢を制御するための動作計画を生成します。
このアプローチは、ビタビ復号アルゴリズムを使用して、粗く離散化されたグリッド内でオブジェクトの姿勢の最も可能性の高いシーケンスを見つける離散姿勢推定器と、姿勢推定を改良し、把握されたオブジェクトの姿勢を正確に操作する連続姿勢推定器/コントローラーで構成されます。

私たちの方法はさまざまなオブジェクトや構成でテストされており、望ましい操作目的を達成し、推定精度において単発方法を上回っています。
提案されたアプローチは、視覚認識が制限されているシナリオで正確な操作を必要とするタスクに使用できる可能性を秘めており、組み立てやツールの使用などの閉ループ動作アプリケーションの基礎を築きます。
実際のデモンストレーションについては、https://sites.google.com/view/texterity で補足ビデオをご覧ください。

要約(オリジナル)

We introduce a novel approach that combines tactile estimation and control for in-hand object manipulation. By integrating measurements from robot kinematics and an image-based tactile sensor, our framework estimates and tracks object pose while simultaneously generating motion plans to control the pose of a grasped object. This approach consists of a discrete pose estimator that uses the Viterbi decoding algorithm to find the most likely sequence of object poses in a coarsely discretized grid, and a continuous pose estimator-controller to refine the pose estimate and accurately manipulate the pose of the grasped object. Our method is tested on diverse objects and configurations, achieving desired manipulation objectives and outperforming single-shot methods in estimation accuracy. The proposed approach holds potential for tasks requiring precise manipulation in scenarios where visual perception is limited, laying the foundation for closed-loop behavior applications such as assembly and tool use. Please see supplementary videos for real-world demonstration at https://sites.google.com/view/texterity.

arxiv情報

著者 Antonia Bronars,Sangwoon Kim,Parag Patre,Alberto Rodriguez
発行日 2024-01-22 16:30:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク