要約
この論文では、空間分析と時間分析を組み合わせた人間の行動にヒントを得た、ビデオ データのリアルタイム異常検出のための新しいアーキテクチャを提案します。
このアプローチでは、2 つの異なるモデルが使用されます。(i) 時間分析には、再帰畳み込みネットワーク (CNN + RNN) が使用され、ビデオ シーケンスを処理するために VGG19 と GRU が関連付けられます。
(ii) 空間解析に関しては、YOLOv7 を使用して個々の画像を解析します。
これら 2 つの分析は、両方の分析結果を組み合わせた最終予測を使用して並行して実行することも、時間分析の前に空間分析によってデータを強化する連続的に実行することもできます。
これら 2 つのアーキテクチャ構成を相互に比較し、ビデオ異常検出におけるハイブリッド アプローチの有効性を評価するために、いくつかの実験が行われました。
要約(オリジナル)
In this paper, we propose a new architecture for real-time anomaly detection in video data, inspired by human behavior combining spatial and temporal analyses. This approach uses two distinct models: (i) for temporal analysis, a recurrent convolutional network (CNN + RNN) is employed, associating VGG19 and a GRU to process video sequences; (ii) regarding spatial analysis, it is performed using YOLOv7 to analyze individual images. These two analyses can be carried out either in parallel, with a final prediction that combines the results of both analysis, or in series, where the spatial analysis enriches the data before the temporal analysis. Some experimentations are been made to compare these two architectural configurations with each other, and evaluate the effectiveness of our hybrid approach in video anomaly detection.
arxiv情報
著者 | Fabien Poirier |
発行日 | 2024-11-29 16:32:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google