Perspective Fields for Single Image Camera Calibration

要約

画像の遠近法を理解するアプリケーションでは、幾何学的なカメラのキャリブレーションが必要になることがよくあります。
画像の局所的な遠近特性をモデル化する表現として、遠近場を提案します。
透視フィールドには、カメラ ビューに関するピクセル単位の情報が含まれており、アップ ベクトルと緯度の値としてパラメーター化されています。
この表現には、カメラ モデルに関する仮定が最小限であり、トリミング、ワーピング、回転などの一般的な画像編集操作に対して不変または同変であるため、多くの利点があります。
また、より解釈しやすく、人間の知覚と一致しています。
パースペクティブ フィールドを予測するためにニューラル ネットワークをトレーニングし、予測されたパースペクティブ フィールドをキャリブレーション パラメーターに簡単に変換できます。
カメラのキャリブレーションベースの方法と比較して、さまざまなシナリオでのアプローチの堅牢性を実証し、画像合成のアプリケーション例を示します。

要約(オリジナル)

Geometric camera calibration is often required for applications that understand the perspective of the image. We propose perspective fields as a representation that models the local perspective properties of an image. Perspective Fields contain per-pixel information about the camera view, parameterized as an up vector and a latitude value. This representation has a number of advantages as it makes minimal assumptions about the camera model and is invariant or equivariant to common image editing operations like cropping, warping, and rotation. It is also more interpretable and aligned with human perception. We train a neural network to predict Perspective Fields and the predicted Perspective Fields can be converted to calibration parameters easily. We demonstrate the robustness of our approach under various scenarios compared with camera calibration-based methods and show example applications in image compositing.

arxiv情報

著者 Linyi Jin,Jianming Zhang,Yannick Hold-Geoffroy,Oliver Wang,Kevin Matzen,Matthew Sticha,David F. Fouhey
発行日 2023-03-16 17:59:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク