VCHAR:Variance-Driven Complex Human Activity Recognition framework with Generative Representation

要約

複雑な人間の活動認識(CHAR)は、ユビキタスコンピューティング、特にスマート環境における極めて重要な課題である。既存の研究では、原子活動と複雑な活動の両方に綿密なラベリングが必要であり、この作業は労力がかかり、利用可能なデータセットの希少性と不正確さのためにエラーが発生しやすい。先行研究のほとんどは、原子活動を正確にラベル付けするデータセットか、最低でもそのシーケンスアプローチに焦点を当てているが、実世界の設定ではしばしば非現実的である。これに対して我々は、原子活動の出力を指定された区間にわたる分布として扱う新しいフレームワークであるVCHAR(Variance-Driven Complex Human Activity Recognition)を紹介する。VCHARは、生成的手法を活用し、複雑な活動分類の背後にある推論を、機械学習の専門知識がなくても利用可能なビデオベースの説明を通じて明らかにする。一般に公開されている3つのデータセットにおける我々の評価は、VCHARが、原子活動の正確な時間的または連続的なラベリングを必要とすることなく、複雑な活動認識の精度を向上させることを示しています。さらに、ユーザー研究により、VCHARの説明は既存の手法と比較してより分かりやすく、専門家以外の複雑な活動認識に対する幅広い理解を促進することが確認された。

要約(オリジナル)

Complex human activity recognition (CHAR) remains a pivotal challenge within ubiquitous computing, especially in the context of smart environments. Existing studies typically require meticulous labeling of both atomic and complex activities, a task that is labor-intensive and prone to errors due to the scarcity and inaccuracies of available datasets. Most prior research has focused on datasets that either precisely label atomic activities or, at minimum, their sequence approaches that are often impractical in real world settings.In response, we introduce VCHAR (Variance-Driven Complex Human Activity Recognition), a novel framework that treats the outputs of atomic activities as a distribution over specified intervals. Leveraging generative methodologies, VCHAR elucidates the reasoning behind complex activity classifications through video-based explanations, accessible to users without prior machine learning expertise. Our evaluation across three publicly available datasets demonstrates that VCHAR enhances the accuracy of complex activity recognition without necessitating precise temporal or sequential labeling of atomic activities. Furthermore, user studies confirm that VCHAR’s explanations are more intelligible compared to existing methods, facilitating a broader understanding of complex activity recognition among non-experts.

arxiv情報

著者 Yuan Sun,Navid Salami Pargoo,Taqiya Ehsan,Zhao Zhang Jorge Ortiz
発行日 2024-07-03 17:24:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.HC, eess.SP パーマリンク