PACE: A Large-Scale Dataset with Pose Annotations in Cluttered Environments

要約

乱雑なシナリオにおける姿勢推定手法の開発と評価を進めるために設計された大規模ベンチマークである PACE (Pose Annotations in Cluttered Environments) を紹介します。
PACE は、インスタンス レベルとカテゴリ レベルの両方の設定に対して大規模な現実世界のベンチマークを提供します。
このベンチマークは、300 のビデオにわたる 258,000 の注釈を含む 55,000 のフレームで構成されており、43 のカテゴリから 238 のオブジェクトをカバーし、乱雑なシーンでの厳格なアイテムと明確なアイテムの組み合わせを特徴としています。
実世界のデータに効率的に注釈を付けるために、私たちは調整された 3 台のカメラ セットアップを備えた革新的な注釈システムを開発しました。
さらに、931 個のオブジェクトにわたる 240 万個の注釈を備えた 100K の写真のようにリアルなシミュレートされたフレームを含む PACE-Sim も提供しています。
私たちは、姿勢推定とオブジェクト姿勢追跡という 2 つのトラックに沿って PACE の最先端のアルゴリズムをテストし、ベンチマークの課題と研究の機会を明らかにします。
ベンチマーク コードとデータは https://github.com/qq456cvb/PACE で入手できます。

要約(オリジナル)

We introduce PACE (Pose Annotations in Cluttered Environments), a large-scale benchmark designed to advance the development and evaluation of pose estimation methods in cluttered scenarios. PACE provides a large-scale real-world benchmark for both instance-level and category-level settings. The benchmark consists of 55K frames with 258K annotations across 300 videos, covering 238 objects from 43 categories and featuring a mix of rigid and articulated items in cluttered scenes. To annotate the real-world data efficiently, we develop an innovative annotation system with a calibrated 3-camera setup. Additionally, we offer PACE-Sim, which contains 100K photo-realistic simulated frames with 2.4M annotations across 931 objects. We test state-of-the-art algorithms in PACE along two tracks: pose estimation, and object pose tracking, revealing the benchmark’s challenges and research opportunities. Our benchmark code and data is available on https://github.com/qq456cvb/PACE.

arxiv情報

著者 Yang You,Kai Xiong,Zhening Yang,Zhengxiang Huang,Junwei Zhou,Ruoxi Shi,Zhou Fang,Adam W. Harley,Leonidas Guibas,Cewu Lu
発行日 2024-07-19 16:28:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク