要約
粒状媒体に埋もれた物体を回収できるロボット操作手法「GEOTACT」を紹介します。
これは、粒状のメディアと対話する必要があり、埋められた物体が視覚から完全に隠される可能性があるため、触覚フィードバックのみに基づいて対話する必要があるため、困難な作業です。
この状況では、周囲のメディアとの遍在的な接触と、触覚読み取りによって誘発される固有のノイズレベルにより、触覚フィードバック自体が困難です。
これらの課題に対処するために、シミュレートされたセンサー ノイズを使用してエンドツーエンドでトレーニングされた学習方法を使用します。
私たちは、問題の定式化により、マニピュレーターが不確実性を軽減し、偽りのノイズのある触覚読み取りにもかかわらず物体を安定した把握に集中させるために使用する、学習された押し動作の自然な出現につながることを示します。
また、これらの動作をシミュレーションで学習し、その後実際のハードウェアにゼロショットで移行できるトレーニング カリキュラムも導入しています。
私たちの知る限り、GEOTACT は、実際のハードウェア上で統合された触覚センシングを使用して、粒度の細かい環境からさまざまなオブジェクトを確実に取得する最初の方法です。
ビデオと追加情報は https://jxu.ai/geotact でご覧いただけます。
要約(オリジナル)
We introduce GEOTACT, a robotic manipulation method capable of retrieving objects buried in granular media. This is a challenging task due to the need to interact with granular media, and doing so based exclusively on tactile feedback, since a buried object can be completely hidden from vision. Tactile feedback is in itself challenging in this context, due to ubiquitous contact with the surrounding media, and the inherent noise level induced by the tactile readings. To address these challenges, we use a learning method trained end-to-end with simulated sensor noise. We show that our problem formulation leads to the natural emergence of learned pushing behaviors that the manipulator uses to reduce uncertainty and funnel the object to a stable grasp despite spurious and noisy tactile readings. We also introduce a training curriculum that enables learning these behaviors in simulation, followed by zero-shot transfer to real hardware. To the best of our knowledge, GEOTACT is the first method to reliably retrieve a number of different objects from a granular environment, doing so on real hardware and with integrated tactile sensing. Videos and additional information can be found at https://jxu.ai/geotact.
arxiv情報
著者 | Jingxi Xu,Yinsen Jia,Dongxiao Yang,Patrick Meng,Xinyue Zhu,Zihan Guo,Shuran Song,Matei Ciocarlie |
発行日 | 2024-02-21 17:31:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google