要約
閉ループのロボットによる把握の問題を検討し、視覚フィードバックと不確実性を認識した適応サンプリング戦略 (VFAS) を使用してループを閉じる新しいプランナーを提案します。
各反復で、私たちのメソッド VFAS-Grasp は、シード 把握のランダムな摂動を生成することによって、一連の候補把握を構築します。
次に、学習された把握品質推定量、推定の不確実性、および時間的一貫性を促進するためのシード提案からの距離を組み合わせた新しい指標を使用して候補にスコアが付けられます。
さらに、サンプリング戦略の効率を向上させるための 2 つのメカニズムを紹介します。過去の把握スコアに基づいて、サンプリング領域のサイズとその中のサンプル数を動的にスケーリングします。
また、動きベクトル場推定器を利用して、サンプリング領域の中心を移動します。
私たちのアルゴリズムはリアルタイム (20 Hz) で実行でき、最初の把握提案を改良することで静的シーンの把握パフォーマンスを向上できることを示します。
また、人間からロボットへの引き継ぎの際に遭遇するような、ゆっくりと動く物体の把握が可能になることも示します。
要約(オリジナル)
We consider the problem of closed-loop robotic grasping and present a novel planner which uses Visual Feedback and an uncertainty-aware Adaptive Sampling strategy (VFAS) to close the loop. At each iteration, our method VFAS-Grasp builds a set of candidate grasps by generating random perturbations of a seed grasp. The candidates are then scored using a novel metric which combines a learned grasp-quality estimator, the uncertainty in the estimate and the distance from the seed proposal to promote temporal consistency. Additionally, we present two mechanisms to improve the efficiency of our sampling strategy: We dynamically scale the sampling region size and number of samples in it based on past grasp scores. We also leverage a motion vector field estimator to shift the center of our sampling region. We demonstrate that our algorithm can run in real time (20 Hz) and is capable of improving grasp performance for static scenes by refining the initial grasp proposal. We also show that it can enable grasping of slow moving objects, such as those encountered during human to robot handover.
arxiv情報
著者 | Pedro Piacenza,Jiacheng Yuan,Jinwook Huh,Volkan Isler |
発行日 | 2023-10-27 20:12:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google