OP-Align: Object-level and Part-level Alignment for Self-supervised Category-level Articulated Object Pose Estimation

要約

カテゴリ レベルの多関節オブジェクトの姿勢推定では、既知のカテゴリ内の未知の多関節オブジェクトの姿勢推定に焦点を当てます。
その重要性にもかかわらず、このタスクは、オブジェクトのさまざまな形状や姿勢、高価なデータセットのアノテーション コスト、および複雑な現実世界の環境のため、依然として困難です。
この論文では、このタスクを解決するために単一フレームの点群を活用する新しい自己教師ありアプローチを提案します。
私たちのモデルは、入力オブジェクト全体の標準的なポーズとジョイント状態を使用して再構築を一貫して生成し、全体的なポーズの分散を低減するオブジェクト レベルのポーズと、入力の各部分を再構築の対応する部分と位置合わせするパーツ レベルのポーズを推定します。
実験結果は、私たちのアプローチが以前の自己教師あり手法を大幅に上回り、最先端の教師あり手法に匹敵することを示しています。
現実世界のシナリオにおけるモデルのパフォーマンスを評価するために、新しい現実世界の多関節オブジェクト ベンチマーク データセットも導入します。

要約(オリジナル)

Category-level articulated object pose estimation focuses on the pose estimation of unknown articulated objects within known categories. Despite its significance, this task remains challenging due to the varying shapes and poses of objects, expensive dataset annotation costs, and complex real-world environments. In this paper, we propose a novel self-supervised approach that leverages a single-frame point cloud to solve this task. Our model consistently generates reconstruction with a canonical pose and joint state for the entire input object, and it estimates object-level poses that reduce overall pose variance and part-level poses that align each part of the input with its corresponding part of the reconstruction. Experimental results demonstrate that our approach significantly outperforms previous self-supervised methods and is comparable to the state-of-the-art supervised methods. To assess the performance of our model in real-world scenarios, we also introduce a new real-world articulated object benchmark dataset.

arxiv情報

著者 Yuchen Che,Ryo Furukawa,Asako Kanezaki
発行日 2024-08-29 14:10:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク