Learning Gentle Grasping from Human-Free Force Control Demonstration

要約

人間は、触覚に基づいて、見慣れない物体を着実かつ優しく掴むことができます。
ロボットは、限られたデータから一般化できる正確な把握力予測と力制御戦略を学習することが難しいため、同様のパフォーマンスを達成する上で依然として課題に直面しています。
この記事では、限られたデータサイズで人間の手と同様のパフォーマンスを達成するために、理想的な力制御デモンストレーションから把握を学習するアプローチを提案します。
私たちのアプローチでは、既知の接触特性を持つオブジェクトを利用して、人によるデモンストレーションなしで基準力曲線を自動的に生成します。
さらに、デモンストレーションからターゲットの把握力の予測を学習するための物理ベースの力学モジュールを組み込んだデュアル畳み込みニューラル ネットワーク (Dual-CNN) アーキテクチャを設計します。
説明された方法は、視覚ベースの触覚センサーに効果的に適用でき、地面から物体を優しく安定して掴むことができます。
説明した予測モデルと把握戦略はオフライン評価とオンライン実験で検証され、精度と一般化可能性が実証されました。

要約(オリジナル)

Humans can steadily and gently grasp unfamiliar objects based on tactile perception. Robots still face challenges in achieving similar performance due to the difficulty of learning accurate grasp-force predictions and force control strategies that can be generalized from limited data. In this article, we propose an approach for learning grasping from ideal force control demonstrations, to achieve similar performance of human hands with limited data size. Our approach utilizes objects with known contact characteristics to automatically generate reference force curves without human demonstrations. In addition, we design the dual convolutional neural networks (Dual-CNN) architecture which incorporating a physics-based mechanics module for learning target grasping force predictions from demonstrations. The described method can be effectively applied in vision-based tactile sensors and enables gentle and stable grasping of objects from the ground. The described prediction model and grasping strategy were validated in offline evaluations and online experiments, and the accuracy and generalizability were demonstrated.

arxiv情報

著者 Mingxuan Li,Lunwei Zhang,Tiemin Li,Yao Jiang
発行日 2024-09-16 15:14:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク