要約
適応型ロボティクスは、真に共創的なサイバーフィジカルシステムを実現する上で重要な役割を果たします。
ロボット操作タスクにおける最大の課題の 1 つは、指定されたワークピースの姿勢を推定することです。
最近の深層学習ベースのモデルは有望な結果を示していますが、トレーニングには膨大なデータセットが必要です。
この論文では、2 つの視覚ベースの複数物体把握姿勢推定モデル (MOGPE)、MOGPE Real-Time と MOGPE High-Precision を提案します。
さらに、ドメインのランダム化に基づく sim2real 手法により、現実のギャップを減らし、データ不足を克服します。
私たちの方法では、実際のロボットによるピック アンド プレース実験において、MOGPE リアルタイム モデルと MOGPE 高精度モデルを使用した場合、それぞれ 80% と 96.67% の成功率が得られました。
私たちのフレームワークは、高速なデータ生成とモデルのトレーニングのための産業用ツールを提供し、必要なドメイン固有のデータは最小限です。
要約(オリジナル)
Adaptive robotics plays an essential role in achieving truly co-creative cyber physical systems. In robotic manipulation tasks, one of the biggest challenges is to estimate the pose of given workpieces. Even though the recent deep-learning-based models show promising results, they require an immense dataset for training. In this paper, two vision-based, multi-object grasp pose estimation models (MOGPE), the MOGPE Real-Time and the MOGPE High-Precision are proposed. Furthermore, a sim2real method based on domain randomization to diminish the reality gap and overcome the data shortage. Our methods yielded an 80% and a 96.67% success rate in a real-world robotic pick-and-place experiment, with the MOGPE Real-Time and the MOGPE High-Precision model respectively. Our framework provides an industrial tool for fast data generation and model training and requires minimal domain-specific data.
arxiv情報
著者 | Dániel Horváth,Kristóf Bocsi,Gábor Erdős,Zoltán Istenes |
発行日 | 2023-07-21 13:51:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google