Line-based 6-DoF Object Pose Estimation and Tracking With an Event Camera

要約

オブジェクトの姿勢推定と追跡は、3D ビジョンの基本的なアプリケーションです。
イベント カメラは、高ダイナミック レンジ、低遅延、モーション ブラーに対する回復力などの優れた特性を備えているため、困難な高ダイナミック レンジのシーンや高速モーションに対処できます。
これらの機能により、イベント カメラは、オブジェクトの姿勢を推定するための標準カメラを理想的に補完するものになります。
この研究では、イベント カメラを使用した、平面または非平面オブジェクトのラインベースのロバストな姿勢推定および追跡方法を提案します。
まず、イベントからオブジェクトのラインを直接抽出し、次に、2D と 3D のラインの対応が事前に知られていない、全体的に最適な分岐結合アプローチを使用して初期ポーズを提供します。
続いて、イベント ライン マッチングを利用して 2D イベントと 3D モデル間の対応関係を確立します。
さらに、イベントラインの距離を最小限に抑えることで、オブジェクトのポーズが洗練され、継続的に追跡されます。
イベントには、堅牢な推定アルゴリズムを使用して、これらの距離に基づいて異なる重みが割り当てられます。
物体の姿勢推定と追跡において提案された方法の精度を評価するために、我々はイベントベースの移動物体データセットを考案し、確立しました。
最先端の方法と比較して、私たちの方法の堅牢性と精度は、合成実験と提案されたデータセットの両方で検証されています。
ソース コードは https://github.com/Zibin6/LOPET で入手できます。

要約(オリジナル)

Pose estimation and tracking of objects is a fundamental application in 3D vision. Event cameras possess remarkable attributes such as high dynamic range, low latency, and resilience against motion blur, which enables them to address challenging high dynamic range scenes or high-speed motion. These features make event cameras an ideal complement over standard cameras for object pose estimation. In this work, we propose a line-based robust pose estimation and tracking method for planar or non-planar objects using an event camera. Firstly, we extract object lines directly from events, then provide an initial pose using a globally-optimal Branch-and-Bound approach, where 2D-3D line correspondences are not known in advance. Subsequently, we utilize event-line matching to establish correspondences between 2D events and 3D models. Furthermore, object poses are refined and continuously tracked by minimizing event-line distances. Events are assigned different weights based on these distances, employing robust estimation algorithms. To evaluate the precision of the proposed methods in object pose estimation and tracking, we have devised and established an event-based moving object dataset. Compared against state-of-the-art methods, the robustness and accuracy of our methods have been validated both on synthetic experiments and the proposed dataset. The source code is available at https://github.com/Zibin6/LOPET.

arxiv情報

著者 Zibin Liu,Banglei Guan,Yang Shang,Qifeng Yu,Laurent Kneip
発行日 2024-08-06 14:36:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク