要約
大規模な3Dシーンの再構築と新規ビューの合成方法の開発は、主に狭い視野(FOV)を持つ視点画像を含むデータセットに依存しています。
小規模なシーンには効果的ですが、これらのデータセットには大きな画像セットとモーションからの広範な構造(SFM)処理が必要で、スケーラビリティが制限されます。
これに対処するために、シーンの再構築タスクに合わせて調整されたフィッシュアイ画像データセットを紹介します。
デュアル200度フィッシュアイレンズを使用して、データセットは、5つの屋内と5つの屋外シーンの360度のカバーを完全に提供します。
各シーンには、SFMポイントクラウドがまばらになり、幾何学的な地下真実として使用できるLidar由来の密なポイント雲があり、閉塞や反射などの困難な条件下で堅牢なベンチマークを可能にします。
ベースライン実験は、バニラガウススプラッティングとNERFベースのネルファクトメソッドに焦点を当てていますが、データセットはシーンの再構築、新しいビューの合成、画像ベースのレンダリングのための多様なアプローチをサポートしています。
要約(オリジナル)
The development of large-scale 3D scene reconstruction and novel view synthesis methods mostly rely on datasets comprising perspective images with narrow fields of view (FoV). While effective for small-scale scenes, these datasets require large image sets and extensive structure-from-motion (SfM) processing, limiting scalability. To address this, we introduce a fisheye image dataset tailored for scene reconstruction tasks. Using dual 200-degree fisheye lenses, our dataset provides full 360-degree coverage of 5 indoor and 5 outdoor scenes. Each scene has sparse SfM point clouds and precise LIDAR-derived dense point clouds that can be used as geometric ground-truth, enabling robust benchmarking under challenging conditions such as occlusions and reflections. While the baseline experiments focus on vanilla Gaussian Splatting and NeRF based Nerfacto methods, the dataset supports diverse approaches for scene reconstruction, novel view synthesis, and image-based rendering.
arxiv情報
著者 | Ulas Gunes,Matias Turkulainen,Xuqian Ren,Arno Solin,Juho Kannala,Esa Rahtu |
発行日 | 2025-04-02 13:41:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google