UnCommon Objects in 3D

要約

3D ディープ ラーニングと 3D 生成 AI 用の新しいオブジェクト中心のデータセットである Uncommon Objects in 3D (uCO3D) を紹介します。
uCO3D は、360$^{\circ}$ を完全にカバーできる、3D 注釈が付いたオブジェクトの高解像度ビデオの公開されている最大のコレクションです。
uCO3D は MVImgNet や CO3Dv2 よりもはるかに多様で、1,000 を超えるオブジェクト カテゴリをカバーしています。
また、収集されたビデオと 3D 注釈の両方について広範な品質チェックが行われているため、品質も高くなります。
類似のデータセットと同様に、uCO3D には 3D カメラのポーズ、深度マップ、および疎な点群の注釈が含まれています。
さらに、各オブジェクトにはキャプションと 3D ガウス スプラット再構成が備わっています。
私たちは、MVImgNet、CO3Dv2、および uCO3D でいくつかの大規模な 3D モデルをトレーニングし、後者を使用して優れた結果を取得しました。これは、uCO3D が学習アプリケーションに適していることを示しています。

要約(オリジナル)

We introduce Uncommon Objects in 3D (uCO3D), a new object-centric dataset for 3D deep learning and 3D generative AI. uCO3D is the largest publicly-available collection of high-resolution videos of objects with 3D annotations that ensures full-360$^{\circ}$ coverage. uCO3D is significantly more diverse than MVImgNet and CO3Dv2, covering more than 1,000 object categories. It is also of higher quality, due to extensive quality checks of both the collected videos and the 3D annotations. Similar to analogous datasets, uCO3D contains annotations for 3D camera poses, depth maps and sparse point clouds. In addition, each object is equipped with a caption and a 3D Gaussian Splat reconstruction. We train several large 3D models on MVImgNet, CO3Dv2, and uCO3D and obtain superior results using the latter, showing that uCO3D is better for learning applications.

arxiv情報

著者 Xingchen Liu,Piyush Tayal,Jianyuan Wang,Jesus Zarzar,Tom Monnier,Konstantinos Tertikas,Jiali Duan,Antoine Toisoul,Jason Y. Zhang,Natalia Neverova,Andrea Vedaldi,Roman Shapovalov,David Novotny
発行日 2025-01-13 18:59:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.GR パーマリンク