DexTouch: Learning to Seek and Manipulate Objects with Tactile Dexterity

要約

触覚はさまざまな作業を巧みに実行するために不可欠な能力であり、視覚情報に頼らずに物体を検索したり操作したりする能力を提供します。
人間の触覚能力をロボットに応用するために、長年にわたって広範な研究が行われてきました。
本稿では、視覚情報に頼らず、触覚を利用して物体を探索・操作する多指ロボットシステムを紹介する。
ランダムに配置された対象オブジェクトを触覚センサーを使用して検索し、そのオブジェクトを操作して日常生活を模倣したタスクを実行します。
研究の目的は、ロボットに人間のような触覚機能を与えることです。
これを達成するために、バイナリ触覚センサーがロボット ハンドの片側に実装され、Sim2Real ギャップを最小限に抑えます。
シミュレーションにおける強化学習によりポリシーを学習させ、学習させたポリシーを実環境に移植することで、視覚情報のない環境でも触覚センサーを用いた物体の検索や操作が可能であることを実証します。
さらに、操作作業に対する触覚情報の影響を分析するためにアブレーション研究が実施されました。
私たちのプロジェクトページは https://lee-kangwon.github.io/dextouch/ からご覧いただけます。

要約(オリジナル)

The sense of touch is an essential ability for skillfully performing a variety of tasks, providing the capacity to search and manipulate objects without relying on visual information. Extensive research has been conducted over time to apply these human tactile abilities to robots. In this paper, we introduce a multi-finger robot system designed to search for and manipulate objects using the sense of touch without relying on visual information. Randomly located target objects are searched using tactile sensors, and the objects are manipulated for tasks that mimic daily-life. The objective of the study is to endow robots with human-like tactile capabilities. To achieve this, binary tactile sensors are implemented on one side of the robot hand to minimize the Sim2Real gap. Training the policy through reinforcement learning in simulation and transferring the trained policy to the real environment, we demonstrate that object search and manipulation using tactile sensors is possible even in an environment without vision information. In addition, an ablation study was conducted to analyze the effect of tactile information on manipulative tasks. Our project page is available at https://lee-kangwon.github.io/dextouch/

arxiv情報

著者 Kang-Won Lee,Yuzhe Qin,Xiaolong Wang,Soo-Chul Lim
発行日 2024-01-23 05:37:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク