Look at Adjacent Frames: Video Anomaly Detection without Offline Training

要約

モデルをオフラインでトレーニングする必要なく、ビデオ内の異常なイベントを検出するソリューションを提案します。
具体的には、私たちのソリューションは、ランダムに初期化された多層パーセプトロンに基づいており、オンラインで最適化されて、周波数情報からビデオ フレームをピクセルごとに再構築します。
隣接するフレーム間の情報シフトに基づいて、増分学習器を使用して、各フレームを観察した後に多層パーセプトロンのパラメーターを更新し、ビデオ ストリームに沿って異常なイベントを検出できるようにします。
オフライン トレーニングを必要としない従来のソリューションは、異常なフレームがわずかしかないビデオの操作に限定されます。
私たちのソリューションはこの限界を打ち破り、ベンチマーク データセットで強力なパフォーマンスを達成します。

要約(オリジナル)

We propose a solution to detect anomalous events in videos without the need to train a model offline. Specifically, our solution is based on a randomly-initialized multilayer perceptron that is optimized online to reconstruct video frames, pixel-by-pixel, from their frequency information. Based on the information shifts between adjacent frames, an incremental learner is used to update parameters of the multilayer perceptron after observing each frame, thus allowing to detect anomalous events along the video stream. Traditional solutions that require no offline training are limited to operating on videos with only a few abnormal frames. Our solution breaks this limit and achieves strong performance on benchmark datasets.

arxiv情報

著者 Yuqi Ouyang,Guodong Shen,Victor Sanchez
発行日 2022-08-02 17:32:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク