Learning In-Hand Translation Using Tactile Skin With Shear and Normal Force Sensing

要約

強化学習 (RL) と触覚センシングの最近の進歩により、器用な操作が大幅に進歩しました。
ただし、これらの方法では、触覚シミュレーションと現実世界との間にギャップがあるため、単純化された触覚信号が利用されることがよくあります。
三値せん断力と二値法線力のゼロショットのシミュレーションから実への伝達を可能にする、触覚皮膚用のセンサー モデルを紹介します。
このモデルを使用して、滑動接触を活用して器用な手の翻訳を実現する RL ポリシーを開発します。
私たちは、触覚センシングがさまざまな目に見えない物体の特性やロボットハンドの方向への政策適応をどのように促進するかを評価するために、広範な実世界での実験を実施しています。
私たちの 3 軸触覚ポリシーは、せん断力のみ、垂直力のみ、または固有受容のみを使用するベースラインよりも常に優れていることを示します。
ウェブサイト: https://jessicayin.github.io/tactile-skin-rl/

要約(オリジナル)

Recent progress in reinforcement learning (RL) and tactile sensing has significantly advanced dexterous manipulation. However, these methods often utilize simplified tactile signals due to the gap between tactile simulation and the real world. We introduce a sensor model for tactile skin that enables zero-shot sim-to-real transfer of ternary shear and binary normal forces. Using this model, we develop an RL policy that leverages sliding contact for dexterous in-hand translation. We conduct extensive real-world experiments to assess how tactile sensing facilitates policy adaptation to various unseen object properties and robot hand orientations. We demonstrate that our 3-axis tactile policies consistently outperform baselines that use only shear forces, only normal forces, or only proprioception. Website: https://jessicayin.github.io/tactile-skin-rl/

arxiv情報

著者 Jessica Yin,Haozhi Qi,Jitendra Malik,James Pikul,Mark Yim,Tess Hellebrekers
発行日 2024-07-10 17:52:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク