要約
この論文では、Gen6D と呼ばれる一般化可能なモデルフリーの 6-DoF オブジェクト姿勢推定器を紹介します。
既存の一般化可能な姿勢推定器は、高品質のオブジェクト モデルを必要とするか、テスト時に追加の深度マップまたはオブジェクト マスクを必要とするため、適用範囲が大幅に制限されます。
対照的に、私たちのポーズ推定器は、目に見えないオブジェクトのいくつかのポーズ画像のみを必要とし、任意の環境でオブジェクトのポーズを正確に予測できます。
Gen6D は、オブジェクト検出器、視点セレクター、ポーズ リファイナーで構成され、これらはすべて 3D オブジェクト モデルを必要とせず、見えないオブジェクトに一般化できます。
実験では、Gen6D が 2 つのモデルフリー データセット (MOPED データセットと私たちが収集した新しい GenMOP データセット) で最先端の結果を達成することが示されています。
さらに、LINEMOD データセットでは、Gen6D はインスタンス固有の姿勢推定器と比較して競争力のある結果を達成しています。
プロジェクトページ: https://liuyuan-pal.github.io/Gen6D/.
要約(オリジナル)
In this paper, we present a generalizable model-free 6-DoF object pose estimator called Gen6D. Existing generalizable pose estimators either need high-quality object models or require additional depth maps or object masks in test time, which significantly limits their application scope. In contrast, our pose estimator only requires some posed images of the unseen object and is able to accurately predict the poses of the object in arbitrary environments. Gen6D consists of an object detector, a viewpoint selector and a pose refiner, all of which do not require the 3D object model and can generalize to unseen objects. Experiments show that Gen6D achieves state-of-the-art results on two model-free datasets: the MOPED dataset and a new GenMOP dataset collected by us. In addition, on the LINEMOD dataset, Gen6D achieves competitive results compared with instance-specific pose estimators. Project page: https://liuyuan-pal.github.io/Gen6D/.
arxiv情報
著者 | Yuan Liu,Yilin Wen,Sida Peng,Cheng Lin,Xiaoxiao Long,Taku Komura,Wenping Wang |
発行日 | 2023-01-27 03:37:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google