要約
安定した堅牢なロボット握手は、現在および将来のロボットアプリケーションに不可欠です。
最近の作品では、大規模なデータセットと監視された学習の使用により、抗産型の把握における速度と精度が向上しました。
ただし、これらの方法では、大規模な計画視野による知覚とキャリブレーションエラーと格闘しています。
より堅牢で反応性のある把握動きを得るために、触覚センシングと組み合わせた補強学習を活用することは有望な方向です。
しかし、力ベースの触覚センシングの複雑さが、タスクを把握するための学習行動にどのように影響するかについての体系的な評価はありません。
このペーパーでは、アンチポダルグラッピングのための2つのモデルフリーの強化学習アプローチを使用して、さまざまな触覚と環境のセットアップを比較します。
私たちの調査結果は、不完全な視覚的認識の下で、さまざまな触覚の特徴が学習結果を改善し、複雑な触覚入力がトレーニングを複雑にすることを示唆しています。
要約(オリジナル)
Stable and robust robotic grasping is essential for current and future robot applications. In recent works, the use of large datasets and supervised learning has enhanced speed and precision in antipodal grasping. However, these methods struggle with perception and calibration errors due to large planning horizons. To obtain more robust and reactive grasping motions, leveraging reinforcement learning combined with tactile sensing is a promising direction. Yet, there is no systematic evaluation of how the complexity of force-based tactile sensing affects the learning behavior for grasping tasks. This paper compares various tactile and environmental setups using two model-free reinforcement learning approaches for antipodal grasping. Our findings suggest that under imperfect visual perception, various tactile features improve learning outcomes, while complex tactile inputs complicate training.
arxiv情報
著者 | Boya Zhang,Iris Andrussow,Andreas Zell,Georg Martius |
発行日 | 2025-02-27 18:36:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google