要約
画像の遠近感を理解するアプリケーションでは、しばしば幾何学的なカメラキャリブレーションが必要となる。我々は、画像の局所的な遠近特性をモデル化する表現として、パースペクティブフィールドを提案する。パースペクティブフィールドは、アップベクトルと緯度値としてパラメータ化された、カメラビューに関するピクセル単位の情報を含んでいる。この表現は、カメラモデルに関する仮定を最小限にし、トリミング、ワープ、回転などの一般的な画像編集操作に対して不変または等変量であるため、多くの利点がある。また、より解釈しやすく、人間の知覚と一致する。我々は、遠近法を予測するためにニューラルネットワークを学習し、予測された遠近法は、簡単にキャリブレーションパラメータに変換することができる。我々は、カメラキャリブレーションに基づく手法と比較して、様々なシナリオの下で我々のアプローチの頑健性を実証し、画像合成における応用例を示している。
要約(オリジナル)
Geometric camera calibration is often required for applications that understand the perspective of the image. We propose perspective fields as a representation that models the local perspective properties of an image. Perspective Fields contain per-pixel information about the camera view, parameterized as an up vector and a latitude value. This representation has a number of advantages as it makes minimal assumptions about the camera model and is invariant or equivariant to common image editing operations like cropping, warping, and rotation. It is also more interpretable and aligned with human perception. We train a neural network to predict Perspective Fields and the predicted Perspective Fields can be converted to calibration parameters easily. We demonstrate the robustness of our approach under various scenarios compared with camera calibration-based methods and show example applications in image compositing.
arxiv情報
著者 | Linyi Jin,Jianming Zhang,Yannick Hold-Geoffroy,Oliver Wang,Kevin Matzen,Matthew Sticha,David F. Fouhey |
発行日 | 2022-12-06 18:59:50+00:00 |
arxivサイト | arxiv_id(pdf) |