AnyRotate: Gravity-Invariant In-Hand Object Rotation with Sim-to-Real Touch

要約

人間の手は、さまざまな手の動きがある場合でも手の中で操作することができます。
ロボットハンドにとって、豊富な触覚情報を利用してこのレベルの器用さを達成することは依然として大きな課題です。
この論文では、高密度の機能を備えたシムトゥリアルタッチを使用して、重力不変の多軸手持ちオブジェクト回転システムである AnyRotate を紹介します。
私たちは、シミュレーションで高密度の触覚ポリシーをトレーニングすることでこの問題に取り組み、ゼロショット ポリシーの転送を達成するためのリッチな触覚センシングのための sim-to-real 手法を提示します。
私たちの定式化により、目に見えないオブジェクトを任意の回転軸を中心に任意の手の方向に回転させるための統一ポリシーのトレーニングが可能になります。
私たちの実験では、さまざまな特性を持つオブジェクトを扱う際に詳細な接触情報を取得することの利点を強調しました。
興味深いことに、明示的な滑り検出がないにもかかわらず、豊富な多指触覚センシングが把握内のオブジェクトの動きを暗黙的に検出し、ポリシーの堅牢性を向上させる反応的な動作を提供できることがわかりました。
プロジェクトの Web サイトは https://maxyang27896.github.io/anyrotate/ にあります。

要約(オリジナル)

Human hands are capable of in-hand manipulation in the presence of different hand motions. For a robot hand, harnessing rich tactile information to achieve this level of dexterity still remains a significant challenge. In this paper, we present AnyRotate, a system for gravity-invariant multi-axis in-hand object rotation using dense featured sim-to-real touch. We tackle this problem by training a dense tactile policy in simulation and present a sim-to-real method for rich tactile sensing to achieve zero-shot policy transfer. Our formulation allows the training of a unified policy to rotate unseen objects about arbitrary rotation axes in any hand direction. In our experiments, we highlight the benefit of capturing detailed contact information when handling objects with varying properties. Interestingly, despite not having explicit slip detection, we found rich multi-fingered tactile sensing can implicitly detect object movement within grasp and provide a reactive behavior that improves the robustness of the policy. The project website can be found at https://maxyang27896.github.io/anyrotate/.

arxiv情報

著者 Max Yang,Chenghua Lu,Alex Church,Yijiong Lin,Chris Ford,Haoran Li,Efi Psomopoulou,David A. W. Barton,Nathan F. Lepora
発行日 2024-06-12 03:25:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク