要約
この論文では、姿勢推定の自己教師あり微調整のための新しい方法を紹介します。
ゼロショット姿勢推定を活用することで、ロボットは手動でラベルを付けることなく自動的にトレーニング データを取得できるようになります。
姿勢推定後、オブジェクトが把握され、データ検証に手持ちの姿勢推定が使用されます。
当社のパイプラインにより、プロセスの実行中にシステムを微調整できるため、学習フェーズが不要になります。
私たちの仕事の背後にある動機は、姿勢推定ソリューションを迅速にセットアップする必要性にあります。
具体的には、柔軟なロボット設定で極めて重要な役割を果たす、箱ピッキングという困難なタスクに取り組みます。
私たちのメソッドはロボットのワークセルに実装され、4 つの異なるオブジェクトでテストされます。
すべてのオブジェクトについて、私たちのメソッドはパフォーマンスを向上させ、オブジェクトの CAD モデルでトレーニングされた最先端のメソッドよりも優れたパフォーマンスを発揮します。
要約(オリジナル)
In this paper, we present a novel method for self-supervised fine-tuning of pose estimation. Leveraging zero-shot pose estimation, our approach enables the robot to automatically obtain training data without manual labeling. After pose estimation the object is grasped, and in-hand pose estimation is used for data validation. Our pipeline allows the system to fine-tune while the process is running, removing the need for a learning phase. The motivation behind our work lies in the need for rapid setup of pose estimation solutions. Specifically, we address the challenging task of bin picking, which plays a pivotal role in flexible robotic setups. Our method is implemented on a robotics work-cell, and tested with four different objects. For all objects, our method increases the performance and outperforms a state-of-the-art method trained on the CAD model of the objects.
arxiv情報
著者 | Frederik Hagelskjær |
発行日 | 2024-11-30 12:11:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google