要約
ロボット工学向けの AI は最近進歩していますが、ベンチマークの欠如と再現性の制約により、把握は部分的に解決された課題のままです。
この論文では、複数のマニピュレータ間で簡単に転送できる視覚ベースの把握フレームワークを紹介します。
このフレームワークは、品質ダイバーシティ (QD) アルゴリズムを活用して、開ループ把握軌道の多様なレパートリーを生成し、把握の多様性を維持しながら適応性を高めます。
このフレームワークは、2 つの主要な問題に対処します。1 つは物体の姿勢を検出するための既製のビジョン モジュールの欠如、もう 1 つはロボットの動作空間全体に対する QD 軌道の一般化です。
提案されたソリューションは、QD で生成された軌道をオブジェクト フレームに厳密に変換しながら、6DoF オブジェクトの検出と追跡のために複数のビジョン モジュールを組み合わせます。
Franka Research 3 アームと SIH Schunk ハンドを備えた UR5 アームでの実験では、実際のシーンが把握生成に使用されるシミュレーションと一致している場合、同等のパフォーマンスが実証されました。
この研究は、さらなるトレーニングの反復なしで多様なシナリオに適応しながら、新しいプラットフォームに移行可能な信頼性の高い視覚ベースの把握モジュールの構築に向けた大きな進歩を表しています。
要約(オリジナル)
Despite recent advancements in AI for robotics, grasping remains a partially solved challenge, hindered by the lack of benchmarks and reproducibility constraints. This paper introduces a vision-based grasping framework that can easily be transferred across multiple manipulators. Leveraging Quality-Diversity (QD) algorithms, the framework generates diverse repertoires of open-loop grasping trajectories, enhancing adaptability while maintaining a diversity of grasps. This framework addresses two main issues: the lack of an off-the-shelf vision module for detecting object pose and the generalization of QD trajectories to the whole robot operational space. The proposed solution combines multiple vision modules for 6DoF object detection and tracking while rigidly transforming QD-generated trajectories into the object frame. Experiments on a Franka Research 3 arm and a UR5 arm with a SIH Schunk hand demonstrate comparable performance when the real scene aligns with the simulation used for grasp generation. This work represents a significant stride toward building a reliable vision-based grasping module transferable to new platforms, while being adaptable to diverse scenarios without further training iterations.
arxiv情報
著者 | François Hélénon,Johann Huber,Faïz Ben Amar,Stéphane Doncieux |
発行日 | 2024-03-12 15:22:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google