Event-based Human Pose Tracking by Spiking Spatiotemporal Transformer

要約

タイトル:スパイキング空間時間変換によるイベントベースの人のポーズ追跡

要約:

– イベントカメラは、運動ダイナミクスを捉えるための新しいバイオロジーに基づいたビジョンセンサーとして現れ、3D人物ポーズ追跡またはビデオベースの3D人物ポーズ推定という新しい可能性を提供します。
– ポーズ追跡に関する既存の作品は、正確な開始ポーズを確立するために追加のグレースケール画像の存在を必要とするか、イベントのストリームのセグメントを折り畳んで静的なイベントフレームを形成することによって、時間的な依存関係を無視します。
– 一方、人工ニューラルネットワーク(ANN:密集したディープラーニングとも呼ばれる)の有効性は、多くのイベントベースのタスクで示されています。しかし、ANNの使用は、フレームベースの画像シーケンスと比較して、イベントカメラからのイベントの発生が空間的に時間的にはるかに疎なことを無視する傾向があります。
– 以上の問題に鑑み、本稿では、イベントベースのポーズ追跡を専用のエンドツーエンドのスパースなディープラーニングアプローチで提供します。
– 3D人物ポーズ追跡がイベントだけから得られるのは、われわれの知る限り、初めてであり、入力の一部としてフレームベースの画像へのアクセスが不要なので、イベントカメラの新しい可能性を開くことができます。
– 最新の人工ニューラルネットワーク(SOTA)のアプローチに比べて優れたパフォーマンスを発揮し、FLOPSで80%の計算削減を達成します。また、提案された方法は、人物ポーズ追跡の回帰課題でSOTAのSNNをも上回っています。

要約(オリジナル)

Event camera, as an emerging biologically-inspired vision sensor for capturing motion dynamics, presents new potential for 3D human pose tracking, or video-based 3D human pose estimation. However, existing works in pose tracking either require the presence of additional gray-scale images to establish a solid starting pose, or ignore the temporal dependencies all together by collapsing segments of event streams to form static event frames. Meanwhile, although the effectiveness of Artificial Neural Networks (ANNs, a.k.a. dense deep learning) has been showcased in many event-based tasks, the use of ANNs tends to neglect the fact that compared to the dense frame-based image sequences, the occurrence of events from an event camera is spatiotemporally much sparser. Motivated by the above mentioned issues, we present in this paper a dedicated end-to-end sparse deep learning approach for event-based pose tracking: 1) to our knowledge this is the first time that 3D human pose tracking is obtained from events only, thus eliminating the need of accessing to any frame-based images as part of input; 2) our approach is based entirely upon the framework of Spiking Neural Networks (SNNs), which consists of Spike-Element-Wise (SEW) ResNet and a novel Spiking Spatiotemporal Transformer; 3) a large-scale synthetic dataset is constructed that features a broad and diverse set of annotated 3D human motions, as well as longer hours of event stream data, named SynEventHPD. Empirical experiments demonstrate that, with superior performance over the state-of-the-art (SOTA) ANNs counterparts, our approach also achieves a significant computation reduction of 80% in FLOPS. Furthermore, our proposed method also outperforms SOTA SNNs in the regression task of human pose tracking. Our implementation is available at https://github.com/JimmyZou/HumanPoseTracking_SNN and dataset will be released upon paper acceptance.

arxiv情報

著者 Shihao Zou,Yuxuan Mu,Xinxin Zuo,Sen Wang,Li Cheng
発行日 2023-05-10 23:50:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク