要約
ステレオ ビジョン システムは、3D 再構成、オブジェクト追跡、自律ナビゲーションなどのコンピューター ビジョン アプリケーションで普及しています。
ただし、直線レンズを使用する従来のステレオ ビジョン システムは、視野が限られているため、特定のシナリオには適さない場合があります。
このため、180×180 度以上の視野を提供できる、さまざまな向きの 1 つまたは複数の魚眼カメラに基づくビジョン システムの人気が高まっています。
ただし、魚眼カメラではエッジに大きな歪みが生じ、ステレオ マッチングと深度推定の精度に影響を与えます。
これらの制限を克服するために、本論文では、直交発散魚眼カメラ (ODFC) を使用したステレオビジョン システムの歪み除去と深度推定解析の方法を提案します。
提案された方法は 2 つの仮想ピンホール カメラ (VPC) を使用し、各 VPC は元のビューのごく一部をキャプチャし、レンズ歪みなしで表示し、ピンホール カメラの動作をエミュレートします。
キャプチャされた領域を慎重に選択することで、2 つの VPC を使用してステレオ ペアを作成できます。
提案手法の性能は、仮想環境を使用したシミュレーションと実際のカメラを使用した実験の両方で評価され、その結果は平行な光軸を備えたステレオカメラと比較されます。
結果は、歪み除去と深さ推定精度の点で提案手法の有効性を示しています。
要約(オリジナル)
Stereo vision systems have become popular in computer vision applications, such as 3D reconstruction, object tracking, and autonomous navigation. However, traditional stereo vision systems that use rectilinear lenses may not be suitable for certain scenarios due to their limited field of view. This has led to the popularity of vision systems based on one or multiple fisheye cameras in different orientations, which can provide a field of view of 180×180 degrees or more. However, fisheye cameras introduce significant distortion at the edges that affects the accuracy of stereo matching and depth estimation. To overcome these limitations, this paper proposes a method for distortion-removal and depth estimation analysis for stereovision system using orthogonally divergent fisheye cameras (ODFC). The proposed method uses two virtual pinhole cameras (VPC), each VPC captures a small portion of the original view and presents it without any lens distortions, emulating the behavior of a pinhole camera. By carefully selecting the captured regions, it is possible to create a stereo pair using two VPCs. The performance of the proposed method is evaluated in both simulation using virtual environment and experiments using real cameras and their results compared to stereo cameras with parallel optical axes. The results demonstrate the effectiveness of the proposed method in terms of distortion removal and depth estimation accuracy.
arxiv情報
著者 | Matvei Panteleev,Houari Bettahar |
発行日 | 2023-07-07 13:44:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google