要約
この論文では、視覚触覚センサー画像から抽出されたキーポイント対応を使用して、正確なオブジェクト操作を容易にする新しい操作戦略を紹介します。
私たちのアプローチは、視覚触覚フィードバックを使用してロボットの動作をガイドし、物体を正確に把握して配置するため、把握後の調整や広範なトレーニングの必要性を排除します。
この方法により、展開効率が向上し、オブジェクトの場所が事前定義されていない環境での操作タスクの課題に対処できます。
私たちは、キーポイントの対応関係の抽出と、ブロックの位置合わせやギアの挿入など、ミリメートルレベルの精度が必要な現実世界のタスクへのそれらの適用を実証する実験を通じて、戦略の有効性を検証します。
結果は、平均誤差マージンが従来のビジョンベースの方法よりも大幅に低く、目標タスクを達成するには十分であることを示しています。
要約(オリジナル)
This paper presents a novel manipulation strategy that uses keypoint correspondences extracted from visuo-tactile sensor images to facilitate precise object manipulation. Our approach uses the visuo-tactile feedback to guide the robot’s actions for accurate object grasping and placement, eliminating the need for post-grasp adjustments and extensive training. This method provides an improvement in deployment efficiency, addressing the challenges of manipulation tasks in environments where object locations are not predefined. We validate the effectiveness of our strategy through experiments demonstrating the extraction of keypoint correspondences and their application to real-world tasks such as block alignment and gear insertion, which require millimeter-level precision. The results show an average error margin significantly lower than that of traditional vision-based methods, which is sufficient to achieve the target tasks.
arxiv情報
著者 | Jeong-Jung Kim,Doo-Yeol Koh,Chang-Hyun Kim |
発行日 | 2024-05-23 12:52:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google