要約
単眼カメラは屋内ロボット工学で広く使用されていますが、スケール情報がないため、視覚オドメトリ、深度推定、および関連アプリケーションではそのパフォーマンスが制限されます。深度推定とは、対応する入力画像から高密度の深度マップを推定するプロセスを指します。
既存の研究者は主に深層学習ベースのアプローチを通じてこの問題に取り組んでいますが、推論速度が遅く、リアルタイム機能が不十分です。
この課題に取り組むために、非線形最適化の原理を活用して、コリドー環境向けに特別に設計された迅速な単眼深度回復のための明示的な方法を提案します。
シーンの事前の幾何学的特徴を最大限に活用するために、仮想カメラの仮定を採用します。
深さ推定問題は、幾何学的残差を最小化することによって最適化問題に変換されます。
さらに、新しい深度平面構築手法が導入され、考えられる深さに基づいて空間点を分類し、廊下などの囲まれた構造シナリオでの迅速な深度推定が容易になります。
また、さまざまなコリドーの UGV カメラによってキャプチャされた画像を含む、Corr\_EH\_z という名前の新しいコリドー データセットも提案します。
さまざまな分野での徹底的な実験により、提案されたアルゴリズムの有効性が明らかになります。
要約(オリジナル)
Monocular cameras are extensively employed in indoor robotics, but their performance is limited in visual odometry, depth estimation, and related applications due to the absence of scale information.Depth estimation refers to the process of estimating a dense depth map from the corresponding input image, existing researchers mostly address this issue through deep learning-based approaches, yet their inference speed is slow, leading to poor real-time capabilities. To tackle this challenge, we propose an explicit method for rapid monocular depth recovery specifically designed for corridor environments, leveraging the principles of nonlinear optimization. We adopt the virtual camera assumption to make full use of the prior geometric features of the scene. The depth estimation problem is transformed into an optimization problem by minimizing the geometric residual. Furthermore, a novel depth plane construction technique is introduced to categorize spatial points based on their possible depths, facilitating swift depth estimation in enclosed structural scenarios, such as corridors. We also propose a new corridor dataset, named Corr\_EH\_z, which contains images as captured by the UGV camera of a variety of corridors. An exhaustive set of experiments in different corridors reveal the efficacy of the proposed algorithm.
arxiv情報
著者 | Yehao Liu,Ruoyan Xia,Xiaosu Xu,Zijian Wang,Yiqing Ya,Mingze Fan |
発行日 | 2023-09-14 03:24:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google