AO-Grasp: Articulated Object Grasp Generation

要約

キャビネットや電化製品の開閉など、ロボットが多関節オブジェクトと対話できるようにする 6 自由度の把握を生成する把握提案手法である AO-Grasp を紹介します。
AO-Grasp は、AO-Grasp モデルと AO-Grasp データセットという 2 つの主要な貢献で構成されています。
単一の多関節オブジェクトのセグメント化された部分点群が与えられると、AO 把握モデルは、アクション可能な把握点予測器を使用してオブジェクト上の最適な把握点を予測します。
次に、これらの点のそれぞれに対応する把握方向を見つけ、安定した実用的な把握提案を生成します。
新しい AO-Grasp データセットで AO-Grasp モデルをトレーニングします。このデータセットには、合成多関節オブジェクト上の 78,000 個の実行可能な平行ジョー把握が含まれています。
シミュレーションでは、AO-Grasp は 45.0% の把握成功率を達成しましたが、最高パフォーマンスのベースラインは 35.0% の成功率を達成しました。
さらに、さまざまな形状、関節軸、関節状態を持つオブジェクトの 120 の実世界シーンで AO-Grasp を評価しました。AO-Grasp は 67.5% のシーンで成功した把握を生成しますが、ベースラインは 33.3% のシーンでのみ成功した把握を生成します。
シーン。
私たちの知る限り、AO-Grasp は、部品検出や手作業で設計された把握ヒューリスティックを必要とせずに、部分点群から直接多関節オブジェクトの 6 自由度の把握を生成する最初の方法です。
プロジェクト Web サイト: https://stanford-iprl-lab.github.io/ao-grasp

要約(オリジナル)

We introduce AO-Grasp, a grasp proposal method that generates 6 DoF grasps that enable robots to interact with articulated objects, such as opening and closing cabinets and appliances. AO-Grasp consists of two main contributions: the AO-Grasp Model and the AO-Grasp Dataset. Given a segmented partial point cloud of a single articulated object, the AO-Grasp Model predicts the best grasp points on the object with an Actionable Grasp Point Predictor. Then, it finds corresponding grasp orientations for each of these points, resulting in stable and actionable grasp proposals. We train the AO-Grasp Model on our new AO-Grasp Dataset, which contains 78K actionable parallel-jaw grasps on synthetic articulated objects. In simulation, AO-Grasp achieves a 45.0 % grasp success rate, whereas the highest performing baseline achieves a 35.0% success rate. Additionally, we evaluate AO-Grasp on 120 real-world scenes of objects with varied geometries, articulation axes, and joint states, where AO-Grasp produces successful grasps on 67.5% of scenes, while the baseline only produces successful grasps on 33.3% of scenes. To the best of our knowledge, AO-Grasp is the first method for generating 6 DoF grasps on articulated objects directly from partial point clouds without requiring part detection or hand-designed grasp heuristics. Project website: https://stanford-iprl-lab.github.io/ao-grasp

arxiv情報

著者 Carlota Parés Morlans,Claire Chen,Yijia Weng,Michelle Yi,Yuying Huang,Nick Heppert,Linqi Zhou,Leonidas Guibas,Jeannette Bohg
発行日 2024-10-10 15:36:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク