要約
6D オブジェクトの姿勢推定は、環境との効率的な対話を可能にするロボット工学の基本的なコンポーネントです。
これは、オブジェクトがテクスチャレスで難しいポーズになっている可能性があり、同じタイプのオブジェクト間のオクルージョンにより、十分にトレーニングされたモデルであっても混乱を引き起こす可能性があるビンピッキング アプリケーションで特に困難です。
我々は、既存のシミュレータと、カメラからオブジェクトのビュースフィアとオクルージョン空間の両方におけるポーズエラーのモデリングを使用して、モデルに依存しないハードサンプル合成の新しい方法を提案します。
オブジェクトのポーズとオクルージョンの分布に関するモデルのパフォーマンスの評価を通じて、誤差の高い領域を発見し、これらの領域を特にターゲットとする現実的なトレーニング サンプルを生成します。
私たちのトレーニング アプローチでは、最先端の姿勢推定モデルを使用して、いくつかの ROBI データセット オブジェクト全体で最大 20% の正確な検出率の向上を実証しました。
要約(オリジナル)
6D Object pose estimation is a fundamental component in robotics enabling efficient interaction with the environment. It is particularly challenging in bin-picking applications, where objects may be textureless and in difficult poses, and occlusion between objects of the same type may cause confusion even in well-trained models. We propose a novel method of hard example synthesis that is model-agnostic, using existing simulators and the modeling of pose error in both the camera-to-object viewsphere and occlusion space. Through evaluation of the model performance with respect to the distribution of object poses and occlusions, we discover regions of high error and generate realistic training samples to specifically target these regions. With our training approach, we demonstrate an improvement in correct detection rate of up to 20% across several ROBI-dataset objects using state-of-the-art pose estimation models.
arxiv情報
著者 | Alan Li,Angela P. Schoellig |
発行日 | 2024-12-13 16:59:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google