HashCC: Lightweight Method to Improve the Quality of the Camera-less NeRF Scene Generation

要約

タイトル:HashCC: カメラレスなNeRFシーン生成の品質向上の軽量化手法
要約:
– Neural Radiance Fieldsは、ビュー合成によるシーン生成の優れた方法となっている。
– ただし、元のアルゴリズムが意味のあるシーン表現を学ぶために必要なのは、データセット内の各画像のカメラポーズ情報。
– そのため、現在のアプローチは、中程度の成功により、カメラポーズ情報を学習しながらシーンのニューロン表現も学習することで、この仮定を回避しようとしている。
– これには複雑なカメラモデルが必要で、長く複雑なトレーニングプロセスを引き起こしたり、レンダリングされたシーンのテクスチャや鮮明さに欠けたりすることがある。
– この研究では、カメラ位置が不明な場合にも適用可能な、Neural Radiance Fieldsレンダリング画像の品質向上のための軽量な方法であるHash Color Correction(HashCC)を紹介する。

要約(オリジナル)

Neural Radiance Fields has become a prominent method of scene generation via view synthesis. A critical requirement for the original algorithm to learn meaningful scene representation is camera pose information for each image in a data set. Current approaches try to circumnavigate this assumption with moderate success, by learning approximate camera positions alongside learning neural representations of a scene. This requires complicated camera models, causing a long and complicated training process, or results in a lack of texture and sharp details in rendered scenes. In this work we introduce Hash Color Correction (HashCC) — a lightweight method for improving Neural Radiance Fields rendered image quality, applicable also in situations where camera positions for a given set of images are unknown.

arxiv情報

著者 Jan Olszewski
発行日 2023-05-07 14:53:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV パーマリンク