Decoding Human Activities: Analyzing Wearable Accelerometer and Gyroscope Data for Activity Recognition

要約

人の動きや相対的な位置は、コンピュータが様々な人間の活動を分類するために様々な操作技術を適用するために読み取ることができる生の電気信号を効果的に生成する。本論文では、FusionActNetと呼ばれる、ResidualMobileNetとアンサンブルされたResidualネットワークに基づく階層化された多構造アプローチを提案する。提案手法では、静的活動と動的活動を別々に分類するために、注意深く設計されたResidualブロックを使用する。これらのネットワークは独立に学習され、2つの特化した高精度なモデルが得られる。これらのモデルは、アーキテクチャ調整による独自のアルゴリズム上の利点を活用することで、特定のスーパークラス内のアクティビティを認識することに優れています。その後、これら2つのResNetsは重み付けされたアンサンブルベースのResidual MobileNetに通されます。このアンサンブルは、静的アクティビティと動的アクティビティの識別に有効である。提案モデルを、UCI HARとMotion-Senseという、一般にアクセス可能な2つのデータセットを用いて評価する。その結果、データの重複という非常に紛らわしいケースをうまく処理することができた。したがって、提案手法は、UCI HARとMotion-Senseデータセットにおいて、それぞれ96.71%と95.35%という最先端の精度を達成した。

要約(オリジナル)

A person’s movement or relative positioning effectively generates raw electrical signals that can be read by computing machines to apply various manipulative techniques for the classification of different human activities. In this paper, a stratified multi-structural approach based on a Residual network ensembled with Residual MobileNet is proposed, termed as FusionActNet. The proposed method involves using carefully designed Residual blocks for classifying the static and dynamic activities separately because they have clear and distinct characteristics that set them apart. These networks are trained independently, resulting in two specialized and highly accurate models. These models excel at recognizing activities within a specific superclass by taking advantage of the unique algorithmic benefits of architectural adjustments. Afterward, these two ResNets are passed through a weighted ensemble-based Residual MobileNet. Subsequently, this ensemble proficiently discriminates between a specific static and a specific dynamic activity, which were previously identified based on their distinct feature characteristics in the earlier stage. The proposed model is evaluated using two publicly accessible datasets; namely, UCI HAR and Motion-Sense. Therein, it successfully handled the highly confusing cases of data overlap. Therefore, the proposed approach achieves a state-of-the-art accuracy of 96.71% and 95.35% in the UCI HAR and Motion-Sense datasets respectively.

arxiv情報

著者 Utsab Saha,Sawradip Saha,Tahmid Kabir,Shaikh Anowarul Fattah,Mohammad Saquib
発行日 2023-10-03 12:34:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク