Interleaving One-Class and Weakly-Supervised Models with Adaptive Thresholding for Unsupervised Video Anomaly Detection

要約

人間による注釈を使用しない場合、一般的な教師なしビデオ異常検出 (UVAD) メソッドでは、相互に疑似ラベルを生成する 2 つのモデルをトレーニングする必要があります。
以前の研究では、2 つのモデルは互いに密接に絡み合っており、トレーニング フレームワークを大幅に変更せずにメソッドをアップグレードする方法は不明でした。
第 2 に、これまでの研究では通常、擬似ラベルを取得するために固定しきい値を採用していましたが、ユーザー指定のしきい値は信頼できず、必然的にトレーニング プロセスにエラーが生じます。
これら 2 つの問題を軽減するために、UVAD の 1 クラス分類 (OCC) モデルと弱教師あり (WS) モデルを交互にトレーニングする新しいインターリーブ フレームワークを提案します。
私たちのメソッドの OCC または WS モデルは、他の OCC または WS モデルと簡単に置き換えることができるため、両方の分野の最新の開発に合わせてメソッドをアップグレードすることが容易になります。
固定閾値問題を処理するために、従来の認知境界を突破し、正常データと異常データの両方でトレーニングできる加重 OCC モデルを提案します。
また、緩い方法から厳密な方法まで、WS モデルの最適なしきい値を自動的に見つけるための適応メカニズムも提案します。
実験により、提案された UVAD 方法が以前のアプローチよりも優れていることが実証されました。

要約(オリジナル)

Without human annotations, a typical Unsupervised Video Anomaly Detection (UVAD) method needs to train two models that generate pseudo labels for each other. In previous work, the two models are closely entangled with each other, and it is not known how to upgrade their method without modifying their training framework significantly. Second, previous work usually adopts fixed thresholding to obtain pseudo labels, however the user-specified threshold is not reliable which inevitably introduces errors into the training process. To alleviate these two problems, we propose a novel interleaved framework that alternately trains a One-Class Classification (OCC) model and a Weakly-Supervised (WS) model for UVAD. The OCC or WS models in our method can be easily replaced with other OCC or WS models, which facilitates our method to upgrade with the most recent developments in both fields. For handling the fixed thresholding problem, we break through the conventional cognitive boundary and propose a weighted OCC model that can be trained on both normal and abnormal data. We also propose an adaptive mechanism for automatically finding the optimal threshold for the WS model in a loose to strict manner. Experiments demonstrate that the proposed UVAD method outperforms previous approaches.

arxiv情報

著者 Yongwei Nie,Hao Huang,Chengjiang Long,Qing Zhang,Pradipta Maji,Hongmin Cai
発行日 2024-01-24 16:11:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク