Diff9D: Diffusion-Based Domain-Generalized Category-Level 9-DoF Object Pose Estimation

要約

9自由度(9-DoF)オブジェクトのポーズとサイズの推定は、拡張現実とロボット操作を可能にするために極めて重要である。カテゴリレベルの手法は、クラス内の未知のオブジェクトに対する汎化の可能性があるため、広範な研究が注目されている。しかし、これらの手法は、大規模な実世界の訓練データを手動で収集し、ラベル付けする必要がある。この問題に対処するために、我々は、領域一般化されたカテゴリレベル9DoF物体ポーズ推定のための拡散ベースのパラダイムを導入する。我々の動機は、拡散モデルの潜在的な汎化能力を活用して、物体ポーズ推定における領域汎化の課題に対処することである。これは、実世界のシーンへの汎化を達成するために、レンダリングされた合成データのみでモデルを訓練することを必要とする。我々は、生成的な観点から9次元物体姿勢推定を再定義するために、効果的な拡散モデルを提案する。我々のモデルは、学習時や推論時に3次元形状事前分布を必要としない。デノイジング拡散暗黙モデルを採用することで、逆拡散処理をわずか3ステップで実行でき、リアルタイムに近い性能を達成できることを実証する。最後に、ハードウェアとソフトウェアの両コンポーネントからなるロボット把持システムを設計する。2つのベンチマークデータセットと実世界のロボットシステムでの包括的な実験を通して、我々の手法が最先端の領域汎化性能を達成することを示す。我々のコードはhttps://github.com/CNJianLiu/Diff9D。

要約(オリジナル)

Nine-degrees-of-freedom (9-DoF) object pose and size estimation is crucial for enabling augmented reality and robotic manipulation. Category-level methods have received extensive research attention due to their potential for generalization to intra-class unknown objects. However, these methods require manual collection and labeling of large-scale real-world training data. To address this problem, we introduce a diffusion-based paradigm for domain-generalized category-level 9-DoF object pose estimation. Our motivation is to leverage the latent generalization ability of the diffusion model to address the domain generalization challenge in object pose estimation. This entails training the model exclusively on rendered synthetic data to achieve generalization to real-world scenes. We propose an effective diffusion model to redefine 9-DoF object pose estimation from a generative perspective. Our model does not require any 3D shape priors during training or inference. By employing the Denoising Diffusion Implicit Model, we demonstrate that the reverse diffusion process can be executed in as few as 3 steps, achieving near real-time performance. Finally, we design a robotic grasping system comprising both hardware and software components. Through comprehensive experiments on two benchmark datasets and the real-world robotic system, we show that our method achieves state-of-the-art domain generalization performance. Our code will be made public at https://github.com/CNJianLiu/Diff9D.

arxiv情報

著者 Jian Liu,Wei Sun,Hui Yang,Pengchao Deng,Chongpei Liu,Nicu Sebe,Hossein Rahmani,Ajmal Mian
発行日 2025-02-04 17:46:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク