Multi-sensor large-scale dataset for multi-view 3D reconstruction

要約

我々は、マルチビュー3D表面再構成のための新しいマルチセンサーデータセットを発表する。このデータセットには、スマートフォン、Intel RealSense、Microsoft Kinect、産業用カメラ、構造光スキャナなど、異なる解像度やモダリティのセンサからの登録済みRGBデータおよび深度データが含まれている。各シーンのデータは、多数の照明条件下で取得されており、既存のアルゴリズムでは困難な多様な材料特性を強調するために、シーンが選択されています。14の照明条件、100の視線方向から取得した107の異なるシーンの約140万枚の画像を提供しています。このデータセットは、様々なタイプの3D再構成アルゴリズムの評価やトレーニング、その他の関連タスクに有用であると期待されます。

要約(オリジナル)

We present a new multi-sensor dataset for multi-view 3D surface reconstruction. It includes registered RGB and depth data from sensors of different resolutions and modalities: smartphones, Intel RealSense, Microsoft Kinect, industrial cameras, and structured-light scanner. The data for each scene is obtained under a large number of lighting conditions, and the scenes are selected to emphasize a diverse set of material properties challenging for existing algorithms. Overall, we provide around 1.4 million images of 107 different scenes acquired at 14 lighting conditions from 100 viewing directions. We expect our dataset will be useful for evaluation and training of 3D reconstruction algorithms of different types and for other related tasks.

arxiv情報

著者 Oleg Voynov,Gleb Bobrovskikh,Pavel Karpyshev,Saveliy Galochkin,Andrei-Timotei Ardelean,Arseniy Bozhenko,Ekaterina Karmanova,Pavel Kopanev,Yaroslav Labutin-Rymsho,Ruslan Rakhimov,Aleksandr Safin,Valerii Serpiva,Alexey Artemov,Evgeny Burnaev,Dzmitry Tsetserukou,Denis Zorin
発行日 2023-02-08 10:33:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク