EvConv: Fast CNN Inference on Event Camera Inputs For High-Speed Robot Perception

要約

イベント カメラは、高い時間分解能と広いダイナミック レンジで視覚情報をキャプチャします。
これにより、急速に変化する環境で細かい時間粒度 (マイクロ秒など) で視覚情報をキャプチャできます。
これにより、イベントカメラは、高速認識、オブジェクト追跡、制御など、急速な動きを伴う高速ロボット工学タスクに非常に役立ちます。
ただし、イベント カメラ ストリームでの畳み込みニューラル ネットワーク推論は、現在、イベント カメラが動作する高速でリアルタイムの推論を実行できません。現在の CNN 推論時間は通常、通常のフレームベースのカメラのフレーム レートに桁違いに近いです。
イベント カメラが提供する高い頻度と高い時間分解能を十分に活用するには、イベント カメラ レートでのリアルタイムの推論が必要です。
このホワイト ペーパーでは、イベント カメラからの入力に対して CNN で高速な推論を可能にする新しいアプローチである EvConv について説明します。
イベント カメラから CNN への連続した入力は、それらの間のわずかな違いしかないことがわかります。
したがって、連続する入力テンソル間の差、またはインクリメントについて推論を実行することを提案します。
これにより、インクリメントが非常にまばらになるため、必要な浮動小数点演算の数 (したがって、推論のレイテンシー) を大幅に削減できます。
EvConv は、イベント カメラからのインクリメントで不規則なスパース性を活用し、ネットワークのすべてのレイヤーにわたってこれらのインクリメントのスパース性を保持するように設計されています。
フォワード パスで必要な浮動操作の数が最大 98% 削減されることを示しています。
また、深度推定、物体認識、オプティカル フロー推定などのタスクに CNN を使用した推論では、精度をほとんど損なうことなく、最大 1.6 倍の高速化を示しています。

要約(オリジナル)

Event cameras capture visual information with a high temporal resolution and a wide dynamic range. This enables capturing visual information at fine time granularities (e.g., microseconds) in rapidly changing environments. This makes event cameras highly useful for high-speed robotics tasks involving rapid motion, such as high-speed perception, object tracking, and control. However, convolutional neural network inference on event camera streams cannot currently perform real-time inference at the high speeds at which event cameras operate – current CNN inference times are typically closer in order of magnitude to the frame rates of regular frame-based cameras. Real-time inference at event camera rates is necessary to fully leverage the high frequency and high temporal resolution that event cameras offer. This paper presents EvConv, a new approach to enable fast inference on CNNs for inputs from event cameras. We observe that consecutive inputs to the CNN from an event camera have only small differences between them. Thus, we propose to perform inference on the difference between consecutive input tensors, or the increment. This enables a significant reduction in the number of floating-point operations required (and thus the inference latency) because increments are very sparse. We design EvConv to leverage the irregular sparsity in increments from event cameras and to retain the sparsity of these increments across all layers of the network. We demonstrate a reduction in the number of floating operations required in the forward pass by up to 98%. We also demonstrate a speedup of up to 1.6X for inference using CNNs for tasks such as depth estimation, object recognition, and optical flow estimation, with almost no loss in accuracy.

arxiv情報

著者 Sankeerth Durvasula,Yushi Guan,Nandita Vijaykumar
発行日 2023-03-08 15:47:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク