6-DoF Grasp Planning using Fast 3D Reconstruction and Grasp Quality CNN

要約

最近の家庭用ロボットに対する消費者の需要は、ロボットによる把持の性能を加速させている。しかし、知覚パイプラインの重要な構成要素である深度カメラはまだ高価であり、ほとんどの消費者がアクセスできない。さらに、大規模なデータセットとクラウドロボティクスを活用し、状態空間と行動空間を4自由度(DoF)のトップダウン把持に限定することで、把持プランニングは最近大幅に改善されました。市販のRGBカメラのような安価な機器とLearn Stereo Machine(LSMcite{kar2017learning})のような最先端のアルゴリズムを用いて、対象物の多視点ジオメトリを活用することで、ロボットは、6自由度の異なる角度からのよりロバストな把持を生成できる。本論文では、把持可能な物体に対するLSMの修正を提示し、把持を評価し、トップダウン把持の可能性がない場合でも、複数のカメラビューを利用してロバストな把持を計画するGrasp-Quality CNN (GQ-CNNcite{mahler2017dex})に基づく6-DoF把持プランナを開発する。

要約(オリジナル)

Recent consumer demand for home robots has accelerated performance of robotic grasping. However, a key component of the perception pipeline, the depth camera, is still expensive and inaccessible to most consumers. In addition, grasp planning has significantly improved recently, by leveraging large datasets and cloud robotics, and by limiting the state and action space to top-down grasps with 4 degrees of freedom (DoF). By leveraging multi-view geometry of the object using inexpensive equipment such as off-the-shelf RGB cameras and state-of-the-art algorithms such as Learn Stereo Machine (LSM\cite{kar2017learning}), the robot is able to generate more robust grasps from different angles with 6-DoF. In this paper, we present a modification of LSM to graspable objects, evaluate the grasps, and develop a 6-DoF grasp planner based on Grasp-Quality CNN (GQ-CNN\cite{mahler2017dex}) that exploits multiple camera views to plan a robust grasp, even in the absence of a possible top-down grasp.

arxiv情報

著者 Yahav Avigal,Samuel Paradis,Harry Zhang
発行日 2024-05-02 00:53:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク