要約
ニューロモーフィック イベントベース カメラは、非同期ピクセルと非常に高い時間分解能を備えた、生物からインスピレーションを得た視覚センサーです。
このような有利な特性により、積極的な自我運動の下で状態推定タスクを解決するための優れた選択肢となります。
ただし、最先端のイベントベースのビジュアル オドメトリ システムでは、ローカル マップを時間内に更新できない場合、カメラ ポーズ追跡の失敗が頻繁に目撃されます。
この特定の分野における最大の障害の 1 つは、環境にいかなる仮定も課すことなくデータを関連付けるための効率的かつ堅牢な方法が存在しないことです。
ただし、イベント データの動きに依存した観測可能性のため、この問題は標準視覚の場合のように対処される可能性は低いと思われます。
したがって、この論文では、イベントベースの視覚慣性状態推定のためのマッピングフリーの設計を提案します。
イベント カメラの位置を推定する代わりに、瞬間的な線速度を回復する方が、イベント カメラの差動動作原理とより一致していることがわかりました。
提案されたイベントベースの視覚慣性速度計は、ステレオ イベント カメラと慣性測定ユニットからの不均一な測定値を段階的に融合する連続時間定式化を活用します。
合成データセットの実験により、提案された方法が低遅延でメートルスケールの瞬間線速度を回復できることが実証されています。
要約(オリジナル)
Neuromorphic event-based cameras are bio-inspired visual sensors with asynchronous pixels and extremely high temporal resolution. Such favorable properties make them an excellent choice for solving state estimation tasks under aggressive ego motion. However, failures of camera pose tracking are frequently witnessed in state-of-the-art event-based visual odometry systems when the local map cannot be updated in time. One of the biggest roadblocks for this specific field is the absence of efficient and robust methods for data association without imposing any assumption on the environment. This problem seems, however, unlikely to be addressed as in standard vision due to the motion-dependent observability of event data. Therefore, we propose a mapping-free design for event-based visual-inertial state estimation in this paper. Instead of estimating the position of the event camera, we find that recovering the instantaneous linear velocity is more consistent with the differential working principle of event cameras. The proposed event-based visual-inertial velometer leverages a continuous-time formulation that incrementally fuses the heterogeneous measurements from a stereo event camera and an inertial measurement unit. Experiments on the synthetic dataset demonstrate that the proposed method can recover instantaneous linear velocity in metric scale with low latency.
arxiv情報
著者 | Xiuyuan Lu,Yi Zhou,Shaojie Shen |
発行日 | 2023-11-30 02:17:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google