Hybrid Architecture for Real-Time Video Anomaly Detection: Integrating Spatial and Temporal Analysis

要約

私たちは、空間分析と時間分析を組み合わせることで人間の行動にヒントを得た、ビデオ データのリアルタイム異常検出のための新しいアーキテクチャを提案します。
このアプローチでは、2 つの異なるモデルが使用されます。時間分析には、再帰畳み込みネットワーク (CNN + RNN) が使用され、ビデオ シーケンスを処理するために VGG19 と GRU が関連付けられます。
空間解析に関してはYOLOv7を用いて個々の画像を解析しています。
これら 2 つの分析は、両方の分析の結果を組み合わせた最終予測を使用して並行して実行することも、時間分析の前に空間分析によってデータを強化する連続的に実行することもできます。
この記事では、ビデオ異常検出におけるハイブリッド アプローチの有効性を評価するために、これら 2 つのアーキテクチャ構成を相互に比較します。

要約(オリジナル)

We propose a new architecture for real-time anomaly detection in video data, inspired by human behavior by combining spatial and temporal analyses. This approach uses two distinct models: for temporal analysis, a recurrent convolutional network (CNN + RNN) is employed, associating VGG19 and a GRU to process video sequences. Regarding spatial analysis, it is performed using YOLOv7 to analyze individual images. These two analyses can be carried out either in parallel, with a final prediction that combines the results of both analyses, or in series, where the spatial analysis enriches the data before the temporal analysis. In this article, we will compare these two architectural configurations with each other, to evaluate the effectiveness of our hybrid approach in video anomaly detection.

arxiv情報

著者 Fabien Poirier
発行日 2024-10-28 14:41:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク