要約
この論文では、ハンドジェスチャ認識(HGR)システム用の膨大なデータセットHaGRID(HAndジェスチャ認識画像データセット)を紹介します。
このデータセットには、18クラスのジェスチャに分割された552,992個のサンプルが含まれています。
注釈は、ジェスチャーラベルと先行する手のマークアップが付いた手の境界ボックスで構成されます。
提案されたデータセットは、ビデオ会議サービス、ホームオートメーションシステム、自動車セクター、音声および聴覚障害を持つ人々のためのサービスなどで使用できるHGRシステムの構築を可能にします。私たちは特にデバイスとの相互作用に焦点を当ててそれらを管理します。
そのため、選択した18のジェスチャーはすべて機能的で、大多数の人に馴染みがあり、何らかの行動を取る動機となる可能性があります。
さらに、クラウドソーシングプラットフォームを使用してデータセットを収集し、さまざまなパラメーターを考慮してデータの多様性を確保しました。
タスクに既存のHGRデータセットを使用する際の課題について説明し、それらの詳細な概要を示します。
さらに、手の検出およびジェスチャ分類タスクのベースラインが提案されます。
要約(オリジナル)
In this paper, we introduce an enormous dataset HaGRID (HAnd Gesture Recognition Image Dataset) for hand gesture recognition (HGR) systems. This dataset contains 552,992 samples divided into 18 classes of gestures. The annotations consist of bounding boxes of hands with gesture labels and markups of leading hands. The proposed dataset allows for building HGR systems, which can be used in video conferencing services, home automation systems, the automotive sector, services for people with speech and hearing impairments, etc. We are especially focused on interaction with devices to manage them. That is why all 18 chosen gestures are functional, familiar to the majority of people, and may be an incentive to take some action. In addition, we used crowdsourcing platforms to collect the dataset and took into account various parameters to ensure data diversity. We describe the challenges of using existing HGR datasets for our task and provide a detailed overview of them. Furthermore, the baselines for the hand detection and gesture classification tasks are proposed.
arxiv情報
著者 | Alexander Kapitanov,Andrew Makhlyarchuk,Karina Kvanchiani |
発行日 | 2022-06-16 14:41:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google