要約
ニューロモーフィック ビジョン センサーまたはイベント カメラにより、極めて短い反応時間の視覚認識が可能になり、高ダイナミック ロボット アプリケーションに新たな道が開かれました。
これらのイベント カメラの出力は、モーションとテクスチャの両方に依存します。
ただし、イベント カメラは、カメラの動きと平行なオブジェクトのエッジをキャプチャできません。
これはセンサー固有の問題であるため、アルゴリズム的に解決するのは困難です。
人間の視覚は、小さな不随意の眼球運動の能動的メカニズム、最も顕著なものはマイクロサッケードと呼ばれるものを使用して、知覚の衰退に対処します。
注視中に目を常にわずかに動かすことにより、マイクロサッケードは質感の安定性と持続性を実質的に維持することができます。
マイクロサッカードからインスピレーションを得て、私たちは短い反応時間と安定した質感を同時に維持できるイベントベースの知覚システムを設計しました。
この設計では、回転ウェッジ プリズムがイベント カメラの絞りの前に取り付けられ、光の方向を変えてイベントをトリガーしました。
回転ウェッジ プリズムの幾何光学により、追加の回転運動をアルゴリズムで補正できるため、外部の動きに関係なく、安定したテクスチャの外観と高い情報出力が得られます。
ハードウェア デバイスとソフトウェア ソリューションは、人工マイクロサッカード強化型 EVent カメラ (AMI-EV) と呼ばれるシステムに統合されています。
ベンチマーク比較により、標準カメラとイベント カメラの両方が配信できないシナリオにおいて、AMI-EV 録画の優れたデータ品質が検証されます。
現実世界でのさまざまな実験により、低レベルと高レベルの視覚タスクの両方でロボットの認識を促進するシステムの可能性が実証されています。
要約(オリジナル)
Neuromorphic vision sensors or event cameras have made the visual perception of extremely low reaction time possible, opening new avenues for high-dynamic robotics applications. These event cameras’ output is dependent on both motion and texture. However, the event camera fails to capture object edges that are parallel to the camera motion. This is a problem intrinsic to the sensor and therefore challenging to solve algorithmically. Human vision deals with perceptual fading using the active mechanism of small involuntary eye movements, the most prominent ones called microsaccades. By moving the eyes constantly and slightly during fixation, microsaccades can substantially maintain texture stability and persistence. Inspired by microsaccades, we designed an event-based perception system capable of simultaneously maintaining low reaction time and stable texture. In this design, a rotating wedge prism was mounted in front of the aperture of an event camera to redirect light and trigger events. The geometrical optics of the rotating wedge prism allows for algorithmic compensation of the additional rotational motion, resulting in a stable texture appearance and high informational output independent of external motion. The hardware device and software solution are integrated into a system, which we call Artificial MIcrosaccade-enhanced EVent camera (AMI-EV). Benchmark comparisons validate the superior data quality of AMI-EV recordings in scenarios where both standard cameras and event cameras fail to deliver. Various real-world experiments demonstrate the potential of the system to facilitate robotics perception both for low-level and high-level vision tasks.
arxiv情報
著者 | Botao He,Ze Wang,Yuan Zhou,Jingxi Chen,Chahat Deep Singh,Haojia Li,Yuman Gao,Shaojie Shen,Kaiwei Wang,Yanjun Cao,Chao Xu,Yiannis Aloimonos,Fei Gao,Cornelia Fermuller |
発行日 | 2024-05-28 02:49:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google