要約
イベント カメラは、視覚情報の自然でデータ効率の高い表現を提供し、視覚情報の抽出に向けた新しい計算戦略を動機付けます。
生物視覚システムにインスピレーションを得て、イベント カメラ データからオブジェクトごとの距離を推定するための動作駆動型アプローチを提案します。
この動作主導型の方法は、人間の目のような生物学的システムが物体距離に基づいて視界を安定させる仕組みを模倣しています。遠くにある物体は焦点を維持するために最小限の補正回転を必要としますが、近くにある物体は位置合わせを維持するためにより大きな調整を必要とします。
この適応戦略は、自然な安定化動作を利用して相対距離を効果的に推定します。
画像全体にわたる深度を推定する従来の視覚アルゴリズムとは異なり、私たちのアプローチは、特定の関心領域内の局所的な深度推定をターゲットとしています。
小さな領域内のイベントを位置合わせすることにより、画像の動きを安定させるために必要な角速度を推定します。
特定の仮定の下で、補償回転流が物体の距離に反比例することを示します。
提案されたアプローチは、距離推定において新しい最先端の精度を達成し、EVIMO2 で 16% のパフォーマンス向上を実現しました。
EVIMO2 イベント シーケンスは、複雑なカメラの動きと、静的な現実世界のシーンの深さの大幅な変化で構成されます。
要約(オリジナル)
Event cameras provide a natural and data efficient representation of visual information, motivating novel computational strategies towards extracting visual information. Inspired by the biological vision system, we propose a behavior driven approach for object-wise distance estimation from event camera data. This behavior-driven method mimics how biological systems, like the human eye, stabilize their view based on object distance: distant objects require minimal compensatory rotation to stay in focus, while nearby objects demand greater adjustments to maintain alignment. This adaptive strategy leverages natural stabilization behaviors to estimate relative distances effectively. Unlike traditional vision algorithms that estimate depth across the entire image, our approach targets local depth estimation within a specific region of interest. By aligning events within a small region, we estimate the angular velocity required to stabilize the image motion. We demonstrate that, under certain assumptions, the compensatory rotational flow is inversely proportional to the object’s distance. The proposed approach achieves new state-of-the-art accuracy in distance estimation – a performance gain of 16% on EVIMO2. EVIMO2 event sequences comprise complex camera motion and substantial variance in depth of static real world scenes.
arxiv情報
著者 | Nan Cai,Pia Bideau |
発行日 | 2024-10-29 17:34:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google