UWB Based Static Gesture Classification

要約

私たちの論文では、独自の UWB レーダー センサー テクノロジーを活用した、UWB ベースの静的ジェスチャ認識のための堅牢なフレームワークを紹介します。
一般的に使用される 5 つのジェスチャを含むデータセットを編集するために、大規模なデータ収集の取り組みが行われました。
私たちのアプローチには、外れ値の処理、アスペクト比を維持したサイズ変更、擬似カラー画像変換を含む包括的なデータ前処理パイプラインが含まれます。
CNN モデルと MobileNet モデルは両方とも、処理された画像でトレーニングされました。
驚くべきことに、当社の最高パフォーマンスのモデルは 96.78% の精度を達成しました。
さらに、モデルのシステム リソースの使用量と処理時間を評価するための使いやすい GUI フレームワークを開発しました。これにより、メモリ使用率が低く、タスクが 1 秒未満でリアルタイムに完了することが明らかになりました。
この研究は、UWB テクノロジーを使用した静的ジェスチャ認識の強化に向けた重要な一歩を示し、さまざまな分野での実用的な応用が期待されます。

要約(オリジナル)

Our paper presents a robust framework for UWB-based static gesture recognition, leveraging proprietary UWB radar sensor technology. Extensive data collection efforts were undertaken to compile datasets containing five commonly used gestures. Our approach involves a comprehensive data pre-processing pipeline that encompasses outlier handling, aspect ratio-preserving resizing, and false-color image transformation. Both CNN and MobileNet models were trained on the processed images. Remarkably, our best-performing model achieved an accuracy of 96.78%. Additionally, we developed a user-friendly GUI framework to assess the model’s system resource usage and processing times, which revealed low memory utilization and real-time task completion in under one second. This research marks a significant step towards enhancing static gesture recognition using UWB technology, promising practical applications in various domains.

arxiv情報

著者 Abhishek Sebastian
発行日 2023-10-23 15:34:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク