要約
複数の指を使ってさまざまなオブジェクトの方向を変更するのは困難な作業です。
ロボットによる手持ち操作の現在の方法は、オブジェクト固有であるか、視覚センサーによるオブジェクトの状態の永続的な監視を必要とします。
これは人間の能力からは程遠く、現実世界のアプリケーションで必要とされるものからも程遠いものです。
この研究では、(指の関節のトルクと位置の測定による) 触覚フィードバックのみに依存して、形状条件付きエージェントをトレーニングして、手の中のさまざまなオブジェクトの向きを変えることで、このギャップに対処します。
これを達成するために、強化学習ポリシーと学習済み状態推定器の形状情報を活用する学習フレームワークを提案します。
固定された基点セットから、予測された 3D ポーズによって変換された形状の表面までのベクトルで 3D 形状を表現することは、器用な手の操作を学習するのに特に役立つことがわかりました。
シミュレーションと現実世界の実験では、特殊な単一オブジェクト エージェントで得られる最先端の結果と同等の高い成功率で多くのオブジェクトの向きを再設定することを示しています。
さらに、新規オブジェクトへの一般化を示し、非凸形状でも $\sim$90% の成功率を達成しました。
要約(オリジナル)
Reorienting diverse objects with a multi-fingered hand is a challenging task. Current methods in robotic in-hand manipulation are either object-specific or require permanent supervision of the object state from visual sensors. This is far from human capabilities and from what is needed in real-world applications. In this work, we address this gap by training shape-conditioned agents to reorient diverse objects in hand, relying purely on tactile feedback (via torque and position measurements of the fingers’ joints). To achieve this, we propose a learning framework that exploits shape information in a reinforcement learning policy and a learned state estimator. We find that representing 3D shapes by vectors from a fixed set of basis points to the shape’s surface, transformed by its predicted 3D pose, is especially helpful for learning dexterous in-hand manipulation. In simulation and real-world experiments, we show the reorientation of many objects with high success rates, on par with state-of-the-art results obtained with specialized single-object agents. Moreover, we show generalization to novel objects, achieving success rates of $\sim$90% even for non-convex shapes.
arxiv情報
著者 | Johannes Pitz,Lennart Röstel,Leon Sievers,Darius Burschka,Berthold Bäuml |
発行日 | 2024-07-26 15:52:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google