要約
多関節物体に対して安定かつ実行可能な 6 自由度の把握を生成する把握提案手法である AO-Grasp を紹介します。
生成された把握により、ロボットはキャビネットや家電製品の開閉など、多関節オブジェクトと対話できるようになります。
単一の多関節オブジェクトのセグメント化された部分点群が与えられると、AO-Grasp は、新しい実用的な把握点予測モデルを使用してオブジェクト上の最適な把握点を予測し、最先端の機能を活用して各点に対応する把握方向を見つけます。
硬い物体を掴む方法。
私たちは新しい AO-Grasp データセットで AO-Grasp をトレーニングします。このデータセットには、合成関節オブジェクト上の 48K の実用的な平行ジョー把握が含まれています。
シミュレーションでは、AO-Grasp は、トレーニング カテゴリとテスト カテゴリの両方で、既存の剛体把握および多関節オブジェクト インタラクション ベースラインよりも高い把握成功率を達成します。
さらに、さまざまな形状、関節軸、関節状態を持つオブジェクトの 120 の現実世界のシーンで AO-Grasp を評価しました。AO-Grasp はシーンの 67.5% で成功した把握を生成しますが、ベースラインはシーンの 33.3% でのみ成功した把握を生成します。
要約(オリジナル)
We introduce AO-Grasp, a grasp proposal method that generates stable and actionable 6 degree-of-freedom grasps for articulated objects. Our generated grasps enable robots to interact with articulated objects, such as opening and closing cabinets and appliances. Given a segmented partial point cloud of a single articulated object, AO-Grasp predicts the best grasp points on the object with a novel Actionable Grasp Point Predictor model and then finds corresponding grasp orientations for each point by leveraging a state-of-the-art rigid object grasping method. We train AO-Grasp on our new AO-Grasp Dataset, which contains 48K actionable parallel-jaw grasps on synthetic articulated objects. In simulation, AO-Grasp achieves higher grasp success rates than existing rigid object grasping and articulated object interaction baselines on both train and test categories. Additionally, we evaluate AO-Grasp on 120 realworld scenes of objects with varied geometries, articulation axes, and joint states, where AO-Grasp produces successful grasps on 67.5% of scenes, while the baseline only produces successful grasps on 33.3% of scenes.
arxiv情報
著者 | Carlota Parés Morlans,Claire Chen,Yijia Weng,Michelle Yi,Yuying Huang,Nick Heppert,Linqi Zhou,Leonidas Guibas,Jeannette Bohg |
発行日 | 2023-10-24 15:26:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google