VCHAR:Variance-Driven Complex Human Activity Recognition framework with Generative Representation

要約

複雑な人間活動認識 (CHAR) は、ユビキタス コンピューティング、特にスマート環境のコンテキストにおいて依然として極めて重要な課題です。
既存の研究では通常、原子的活動と複雑な活動の両方の細心の注意を払ったラベル付けが必要ですが、この作業は労働集約的であり、利用可能なデータセットの不足と不正確さによりエラーが発生しやすいものです。
これまでの研究のほとんどは、原子の活動を正確にラベル付けするデータセット、または少なくとも現実世界の設定では非現実的であることが多い原子の配列アプローチに焦点を当てたデータセットに焦点を当てていました。これに応えて、私たちは、VCHAR (Variance-Driven Complex Human Activity Recognition) という新しいフレームワークを紹介します。
アトミック アクティビティの出力を、指定された間隔にわたる分布として扱います。
VCHAR は生成手法を活用し、ビデオベースの説明を通じて複雑なアクティビティ分類の背後にある推論を解明します。これは、機械学習の事前の専門知識がなくてもユーザーがアクセスできます。
3 つの公的に利用可能なデータセットにわたる私たちの評価は、VCHAR が原子アクティビティの正確な時間的または連続的なラベル付けを必要とせずに、複雑なアクティビティ認識の精度を向上させることを示しています。
さらに、ユーザー調査では、VCHAR の説明が既存の方法と比較してより理解しやすく、専門家以外の人々の間でも複雑なアクティビティ認識についてのより幅広い理解を促進することが確認されています。

要約(オリジナル)

Complex human activity recognition (CHAR) remains a pivotal challenge within ubiquitous computing, especially in the context of smart environments. Existing studies typically require meticulous labeling of both atomic and complex activities, a task that is labor-intensive and prone to errors due to the scarcity and inaccuracies of available datasets. Most prior research has focused on datasets that either precisely label atomic activities or, at minimum, their sequence approaches that are often impractical in real world settings.In response, we introduce VCHAR (Variance-Driven Complex Human Activity Recognition), a novel framework that treats the outputs of atomic activities as a distribution over specified intervals. Leveraging generative methodologies, VCHAR elucidates the reasoning behind complex activity classifications through video-based explanations, accessible to users without prior machine learning expertise. Our evaluation across three publicly available datasets demonstrates that VCHAR enhances the accuracy of complex activity recognition without necessitating precise temporal or sequential labeling of atomic activities. Furthermore, user studies confirm that VCHAR’s explanations are more intelligible compared to existing methods, facilitating a broader understanding of complex activity recognition among non-experts.

arxiv情報

著者 Yuan Sun,Navid Salami Pargoo,Taqiya Ehsan,Zhao Zhang,Jorge Ortiz
発行日 2024-08-06 15:14:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.HC, eess.SP パーマリンク