Good Grasps Only: A data engine for self-supervised fine-tuning of pose estimation using grasp poses for verification

要約

この論文では、姿勢推定の自己教師あり微調整のための新しい方法を紹介します。
ゼロショット姿勢推定を活用することで、ロボットは手動でラベルを付けることなく自動的にトレーニング データを取得できるようになります。
姿勢推定後、オブジェクトが把握され、データ検証に手持ちの姿勢推定が使用されます。
当社のパイプラインにより、プロセスの実行中にシステムを微調整できるため、学習フェーズが不要になります。
私たちの仕事の背後にある動機は、姿勢推定ソリューションを迅速にセットアップする必要性にあります。
具体的には、柔軟なロボット設定で極めて重要な役割を果たす、箱ピッキングという困難なタスクに取り組みます。
私たちのメソッドはロボットのワークセルに実装され、4 つの異なるオブジェクトでテストされます。
すべてのオブジェクトについて、私たちのメソッドはパフォーマンスを向上させ、オブジェクトの CAD モデルでトレーニングされた最先端のメソッドよりも優れたパフォーマンスを発揮します。

要約(オリジナル)

In this paper, we present a novel method for self-supervised fine-tuning of pose estimation. Leveraging zero-shot pose estimation, our approach enables the robot to automatically obtain training data without manual labeling. After pose estimation the object is grasped, and in-hand pose estimation is used for data validation. Our pipeline allows the system to fine-tune while the process is running, removing the need for a learning phase. The motivation behind our work lies in the need for rapid setup of pose estimation solutions. Specifically, we address the challenging task of bin picking, which plays a pivotal role in flexible robotic setups. Our method is implemented on a robotics work-cell, and tested with four different objects. For all objects, our method increases the performance and outperforms a state-of-the-art method trained on the CAD model of the objects.

arxiv情報

著者 Frederik Hagelskjær
発行日 2024-11-30 12:11:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク