要約
学校での生徒の安全を確保するために、ビデオ監視システムが設置されています。
ただし、戦闘や転倒などの危険な行動を発見することは、通常、時機を逸した人間の観察に依存します。
この論文では、データセットの不足、姿勢の混乱、キーフレームの検出、迅速な対応など、多くの課題に直面している学生の危険な行動を自動的に検出することに焦点を当てています。
これらの課題に対処するために、まず監視ビデオの場所とラベルを使用して危険行動データセットを構築し、長いビデオのアクション認識をキーフレーム検出を回避するオブジェクト検出タスクに変換します。
次に、マルチスケールの身体の特徴とキーポイントベースのポーズの特徴を組み合わせた、DangerDetという名前の新しいエンドツーエンドの危険な行動の検出方法を提案します。
ポーズと行動の相関性が高いため、行動分類の精度を向上させることができました。
私たちのデータセットでは、DangerDetは約11FPSで71.0\%mAPを達成しています。
これにより、精度と時間コストのバランスが改善されます。
要約(オリジナル)
Video surveillance systems have been installed to ensure the student safety in schools. However, discovering dangerous behaviors, such as fighting and falling down, usually depends on untimely human observations. In this paper, we focus on detecting dangerous behaviors of students automatically, which faces numerous challenges, such as insufficient datasets, confusing postures, keyframes detection and prompt response. To address these challenges, we first build a danger behavior dataset with locations and labels from surveillance videos, and transform action recognition of long videos to an object detection task that avoids keyframes detection. Then, we propose a novel end-to-end dangerous behavior detection method, named DangerDet, that combines multi-scale body features and keypoints-based pose features. We could improve the accuracy of behavior classification due to the highly correlation between pose and behavior. On our dataset, DangerDet achieves 71.0\% mAP with about 11 FPS. It keeps a better balance between the accuracy and time cost.
arxiv情報
著者 | Huayi Zhou,Fei Jiang,Hongtao Lu |
発行日 | 2022-06-04 13:37:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google