Long-Distance Gesture Recognition using Dynamic Neural Networks

要約

ジェスチャは、人間と機械の間の重要なコミュニケーション媒体を形成します。
既存のジェスチャ認識方法の圧倒的多数は、人間と機械が互いに非常に近くに位置するシナリオに合わせて調整されています。
この短距離の仮定は、床掃除ロボットやドローンとのジェスチャーベースのインタラクションなど、いくつかのタイプのインタラクションには当てはまりません。
近距離認識用に作成された方法は、ジェスチャが入力データのごく一部しか占めていないため、遠距離認識ではうまく機能しません。
リソースに制約があり、ジェスチャーをする被写体に限られた計算能力を効果的に集中させることができない設定では、パフォーマンスが特に低下します。
我々は、より長距離からのジェスチャを認識するための、新規で正確かつ効率的な方法を提案します。
動的ニューラル ネットワークを使用して、入力センサー データのジェスチャを含む空間領域から特徴を選択し、さらに処理します。
これにより、ネットワークは背景の機能を早期に破棄しながら、ジェスチャ認識に重要な機能に焦点を当てることができるため、他の手法と比較して計算効率が向上します。
LD-ConGR 長距離データセット上で私たちの方法のパフォーマンスを実証し、認識精度と計算効率において以前の最先端の方法を上回っています。

要約(オリジナル)

Gestures form an important medium of communication between humans and machines. An overwhelming majority of existing gesture recognition methods are tailored to a scenario where humans and machines are located very close to each other. This short-distance assumption does not hold true for several types of interactions, for example gesture-based interactions with a floor cleaning robot or with a drone. Methods made for short-distance recognition are unable to perform well on long-distance recognition due to gestures occupying only a small portion of the input data. Their performance is especially worse in resource constrained settings where they are not able to effectively focus their limited compute on the gesturing subject. We propose a novel, accurate and efficient method for the recognition of gestures from longer distances. It uses a dynamic neural network to select features from gesture-containing spatial regions of the input sensor data for further processing. This helps the network focus on features important for gesture recognition while discarding background features early on, thus making it more compute efficient compared to other techniques. We demonstrate the performance of our method on the LD-ConGR long-distance dataset where it outperforms previous state-of-the-art methods on recognition accuracy and compute efficiency.

arxiv情報

著者 Shubhang Bhatnagar,Sharath Gopal,Narendra Ahuja,Liu Ren
発行日 2023-08-09 00:56:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.HC, cs.RO, eess.IV パーマリンク