要約
見えないオブジェクトの6Dポーズを推定することは、多くの実際のアプリケーションにとって大きな需要があります。
ただし、現在の最先端のポーズ推定方法では、以前にトレーニングされたオブジェクトしか処理できません。
この論文では、テスト中に新規オブジェクトの6Dポーズ推定を推定するアルゴリズムを可能にし、容易にする新しいタスクを提案します。
テストセット内の実際の画像と合成画像の両方、および最大48個の見えないオブジェクトを含むデータセットを収集します。
その間に、さまざまなタイプのポーズのあいまいさを持つオブジェクトの不変測度であるInfimum ADD(IADD)という名前の新しいメトリックを提案します。
このタスクの2段階のベースラインソリューションも提供されます。
エンドツーエンドの3D通信ネットワークをトレーニングすることにより、私たちの方法は、見えないオブジェクトと部分ビューRGBD画像の間の対応するポイントを正確かつ効率的に見つけます。
次に、オブジェクトの対称性にロバストなアルゴリズムを使用して、対応から6Dポーズを計算します。
広範な実験は、私たちの方法がいくつかの直感的なベースラインを上回り、したがってその有効性を検証することを示しています。
すべてのデータ、コード、モデルが公開されます。
プロジェクトページ:www.graspnet.net/unseen6d
要約(オリジナル)
Estimating the 6D pose for unseen objects is in great demand for many real-world applications. However, current state-of-the-art pose estimation methods can only handle objects that are previously trained. In this paper, we propose a new task that enables and facilitates algorithms to estimate the 6D pose estimation of novel objects during testing. We collect a dataset with both real and synthetic images and up to 48 unseen objects in the test set. In the mean while, we propose a new metric named Infimum ADD (IADD) which is an invariant measurement for objects with different types of pose ambiguity. A two-stage baseline solution for this task is also provided. By training an end-to-end 3D correspondences network, our method finds corresponding points between an unseen object and a partial view RGBD image accurately and efficiently. It then calculates the 6D pose from the correspondences using an algorithm robust to object symmetry. Extensive experiments show that our method outperforms several intuitive baselines and thus verify its effectiveness. All the data, code and models will be made publicly available. Project page: www.graspnet.net/unseen6d
arxiv情報
著者 | Minghao Gou,Haolin Pan,Hao-Shu Fang,Ziyuan Liu,Cewu Lu,Ping Tan |
発行日 | 2022-06-23 16:29:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google