Globally-Optimal Contrast Maximisation for Event Cameras

要約

イベントカメラは、困難な照明条件で優れた性能を発揮し、高い時間分解能を備えたバイオインスパイアードセンサーです。
ただし、そのコンセプトは従来のフレームベースのカメラとは根本的に異なります。
イベントカメラのピクセルは、独立して非同期で動作します。
それらは対数の明るさの変化を測定し、最後のイベントからの特定の量の相対的な変化を示すタイムスタンプ付きのイベントの高度に離散化された形式でそれらを返します。
この種の測定を処理するには、新しいモデルとアルゴリズムが必要です。
本研究では、イベントカメラに関するいくつかのモーションエスティメーションの問題に注目します。
イベントの流れは、時空ボリューム内の一般的な同形異義語のワープによってモデル化され、目的はワープされたイベントの画像内のコントラストの最大化として定式化されます。
私たちの中心的な貢献は、これらの一般的に非凸の問題に対するグローバルに最適なソリューションを導き出すことで構成されています。これにより、既存の方法を悩ませている適切な初期推測への依存がなくなります。
私たちの方法は分枝限定法の最適化に依存しており、6つの異なるコントラスト推定関数に対して導出された斬新で効率的な再帰的な上限と下限を採用しています。
私たちのアプローチの実用的な妥当性は、3つの異なるイベントカメラのモーションエスティメーション問題への適用の成功によって実証されています。

要約(オリジナル)

Event cameras are bio-inspired sensors that perform well in challenging illumination conditions and have high temporal resolution. However, their concept is fundamentally different from traditional frame-based cameras. The pixels of an event camera operate independently and asynchronously. They measure changes of the logarithmic brightness and return them in the highly discretised form of time-stamped events indicating a relative change of a certain quantity since the last event. New models and algorithms are needed to process this kind of measurements. The present work looks at several motion estimation problems with event cameras. The flow of the events is modelled by a general homographic warping in a space-time volume, and the objective is formulated as a maximisation of contrast within the image of warped events. Our core contribution consists of deriving globally optimal solutions to these generally non-convex problems, which removes the dependency on a good initial guess plaguing existing methods. Our methods rely on branch-and-bound optimisation and employ novel and efficient, recursive upper and lower bounds derived for six different contrast estimation functions. The practical validity of our approach is demonstrated by a successful application to three different event camera motion estimation problems.

arxiv情報

著者 Xin Peng,Ling Gao,Yifu Wang,Laurent Kneip
発行日 2022-06-10 14:06:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク