ShapeICP: Iterative Category-level Object Pose and Shape Estimation from Depth

要約

単一の深度画像からのカテゴリレベルの物体の姿勢と形状の推定は、ロボット工学や自動運転における幅広い応用により、最近研究の注目を集めています。
このタスクは、物体の姿勢、物体の形状、モデルと測定値の対応という 3 つの未知要素が複合的に組み合わされているにもかかわらず、深さ測定の単一ビューしか提供されないため、特に困難です。
これまでの研究の大部分は、未知の領域のうち少なくとも 1 つ、通常は 2 つに対する解決策を得るためにデータ駆動型のアプローチに大きく依存しており、未知の領域への一般化に失敗するリスクを伴います。
以前の研究で使用された形状表現も、主に点群と符号付き距離場 (SDF) に焦点を当てています。
これまでの研究とはまったく対照的に、私たちは、ポーズの注釈が付けられたデータからの学習を必要としない反復推定法を使用して問題に取り組みます。
さらに、これまでの文献では検討されていない、新しいメッシュベースのオブジェクト アクティブ形状モデルを採用します。
ShapeICP と呼ばれる私たちのアルゴリズムは、反復最近接点 (ICP) アルゴリズムを基礎としていますが、カテゴリレベルのポーズと形状の推定タスクのための追加機能が装備されています。
この結果は、ポーズの注釈付きデータを使用しなくても、ShapeICP がトレーニングにポーズ データに依存する多くのデータ駆動型アプローチを上回り、研究者が検討できる新しいソリューションの余地を開くことを示しています。

要約(オリジナル)

Category-level object pose and shape estimation from a single depth image has recently drawn research attention due to its wide applications in robotics and self-driving. The task is particularly challenging because the three unknowns, object pose, object shape, and model-to-measurement correspondences, are compounded together but only a single view of depth measurements is provided. The vast majority of the prior work heavily relies on data-driven approaches to obtain solutions to at least one of the unknowns and typically two, running with the risk of failing to generalize to unseen domains. The shape representations used in the prior work also mainly focus on point cloud and signed distance field (SDF). In stark contrast to the prior work, we approach the problem using an iterative estimation method that does not require learning from any pose-annotated data. In addition, we adopt a novel mesh-based object active shape model that has not been explored by the previous literature. Our algorithm, named ShapeICP, has its foundation in the iterative closest point (ICP) algorithm but is equipped with additional features for the category-level pose and shape estimation task. The results show that even without using any pose-annotated data, ShapeICP surpasses many data-driven approaches that rely on the pose data for training, opening up new solution space for researchers to consider.

arxiv情報

著者 Yihao Zhang,John J. Leonard
発行日 2024-08-23 15:12:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク