要約
ロボットが産業環境以外でも広く利用されるようになるにつれて、信頼性の高い物体の把握と操作の必要性が高まっています。
このような環境では、ロボットはさまざまな状況で新しい物体を把握し、操作できなければなりません。
この論文では、身近な物体のポイントごとの 6D 把握構成を生成するカプセル ネットワークに基づく新しいアーキテクチャである GraspCaps について説明します。
GraspCaps は、点群入力に存在するオブジェクトの豊富な特徴ベクトルを抽出し、それを使用して点ごとの把握ベクトルを生成します。
このアプローチにより、ネットワークはオブジェクト カテゴリごとに特定の把握戦略を学習できるようになります。
この論文では、GraspCaps に加えて、シミュレーテッド アニーリングを使用して大規模なオブジェクト把握データセットを生成する方法も紹介しています。
取得されたデータセットは、GraspCaps ネットワークのトレーニングに使用されます。
広範な実験を通じて、特に困難な実際のシナリオおよびシミュレートされたシナリオでの身近なオブジェクトの把握の成功率の観点から、提案されたアプローチのパフォーマンスを評価します。
実験結果は、提案されたアプローチの全体的なオブジェクト把握パフォーマンスが、選択されたベースラインよりも大幅に優れていることを示しました。
この優れたパフォーマンスは、さまざまなシナリオでオブジェクトの把握を成功させる上での GraspCaps の有効性を強調しています。
要約(オリジナル)
As robots become more widely available outside industrial settings, the need for reliable object grasping and manipulation is increasing. In such environments, robots must be able to grasp and manipulate novel objects in various situations. This paper presents GraspCaps, a novel architecture based on Capsule Networks for generating per-point 6D grasp configurations for familiar objects. GraspCaps extracts a rich feature vector of the objects present in the point cloud input, which is then used to generate per-point grasp vectors. This approach allows the network to learn specific grasping strategies for each object category. In addition to GraspCaps, the paper also presents a method for generating a large object-grasping dataset using simulated annealing. The obtained dataset is then used to train the GraspCaps network. Through extensive experiments, we evaluate the performance of the proposed approach, particularly in terms of the success rate of grasping familiar objects in challenging real and simulated scenarios. The experimental results showed that the overall object-grasping performance of the proposed approach is significantly better than the selected baseline. This superior performance highlights the effectiveness of the GraspCaps in achieving successful object grasping across various scenarios.
arxiv情報
著者 | Tomas van der Velde,Hamed Ayoobi,Hamidreza Kasaei |
発行日 | 2023-11-29 19:27:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google