Learning Robust Grasping Strategy Through Tactile Sensing and Adaption Skill

要約

確実な把握はロボット工学における重要なタスクであり、物体を確実に把握するためには触覚フィードバックと反応性の把握調整が必要です。
これまでの研究では、触覚センシングと把握を広範囲に組み合わせており、主にルールベースのアプローチに依存しており、外部からの混乱や物体の物理学や形状に固有の不確実性など、把握後の困難が無視されることが多かった。
これらの制限に対処するために、本論文では、触覚に基づく人間によるデモンストレーションに基づいた適応的把握ポリシーを紹介します。これは、把握の安定性を維持するために外乱に耐えながら堅牢な把握を実現することを目的としています。
私たちのトレーニングされたモデルは、7 つの異なるサイズ、形状、テクスチャを持つ日常の物体に一般化されます。
実験結果は、私たちの方法が動的および力の相互作用タスクでうまく機能し、優れた一般化能力を示すことを示しています。

要約(オリジナル)

Robust grasping represents an essential task in robotics, necessitating tactile feedback and reactive grasping adjustments for robust grasping of objects. Previous research has extensively combined tactile sensing with grasping, primarily relying on rule-based approaches, frequently neglecting post-grasping difficulties such as external disruptions or inherent uncertainties of the object’s physics and geometry. To address these limitations, this paper introduces an human-demonstration-based adaptive grasping policy base on tactile, which aims to achieve robust gripping while resisting disturbances to maintain grasp stability. Our trained model generalizes to daily objects with seven different sizes, shapes, and textures. Experimental results demonstrate that our method performs well in dynamic and force interaction tasks and exhibits excellent generalization ability.

arxiv情報

著者 Yueming Hu,Mengde Li,Songhua Yang,Xuetao Li,Sheng Liu,Miao Li
発行日 2024-11-13 10:32:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク