要約
ロボットの把握は、非静的なオブジェクト状態、未知のオブジェクトプロパティ、および乱雑なオブジェクトの配置によって引き起こされるさまざまな現実世界の不確実性に直面しています。
把握の難しさは、より多くの不確実性の存在とともに増加します。一般的に使用される学習ベースのアプローチは、さまざまな条件で一貫して実行するのに苦労しています。
この研究では、類似性のマッチングのアイデアを統合して、複数の不確実性が共存する単一のRGBDカメラを使用して、同時に動いていて密集している新しいオブジェクトを把握するという課題に取り組みます。
これを達成し、視覚検出をグローバルから地方の状態にシフトし、静的から動的なシーンから動的なシーンに計画を把握します。
特に、この時間に敏感なタスクの計画効率を高めるための最適化方法を導入します。
私たちの提案されたシステムは、実際の実験で実証されているように、広範なトレーニングを必要とせずに、さまざまなオブジェクトタイプ、配置、および移動速度に適応できます。
ビデオはhttps://youtu.be/sdc50dx-xp8?si=27ovr4dhg0rqn_ttで入手できます。
要約(オリジナル)
Robotic grasping is facing a variety of real-world uncertainties caused by non-static object states, unknown object properties, and cluttered object arrangements. The difficulty of grasping increases with the presence of more uncertainties, where commonly used learning-based approaches struggle to perform consistently across varying conditions. In this study, we integrate the idea of similarity matching to tackle the challenge of grasping novel objects that are simultaneously in motion and densely cluttered using a single RGBD camera, where multiple uncertainties coexist. We achieve this by shifting visual detection from global to local states and operating grasp planning from static to dynamic scenes. Notably, we introduce optimization methods to enhance planning efficiency for this time-sensitive task. Our proposed system can adapt to various object types, arrangements and movement speeds without the need for extensive training, as demonstrated by real-world experiments. Videos are available at https://youtu.be/sdC50dx-xp8?si=27oVr4dhG0rqN_tT.
arxiv情報
著者 | Hao Chen,Takuya Kiyokawa,Weiwei Wan,Kensuke Harada |
発行日 | 2025-02-12 06:20:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google