Memory-free Online Change-point Detection: A Novel Neural Network Approach

要約

データ分布の突然の変化を検出する変化点検出 (CPD) は、時系列分析における最も重要なタスクの 1 つとして認識されています。
オフライン CPD に関する広範な文献があるにもかかわらず、教師なしオンライン CPD は、スケーラビリティ、ハイパーパラメータ調整、学習の制約などの大きな課題に依然として悩まされています。
これらの課題の一部を軽減するために、この論文では、Adaptive LSTM-Autoencoder Change-Point Detection (ALACPD) と呼ばれる、多次元時系列からの教師なしオンライン CPD のための新しい深層学習アプローチを提案します。
ALACPD は、LSTM オートエンコーダベースのニューラル ネットワークを利用して、教師なしオンライン CPD を実行します。
以前に受信した入力を保持することなく、受信サンプルに継続的に適応するため、メモリが不要になります。
私たちは、いくつかの実世界の時系列 CPD ベンチマークに対して広範な評価を実行します。
ALACPD は、時系列セグメンテーションの品質の点で、平均して最先端の CPD アルゴリズムの中で 1 位にランクされ、推定された変化点の精度の点で最高のパフォーマンスを発揮するアルゴリズムと同等であることを示します。

ALACPD の実装は、Github\footnote{\url{https://github.com/zahraatashgahi/ALACPD}} でオンラインで入手できます。

要約(オリジナル)

Change-point detection (CPD), which detects abrupt changes in the data distribution, is recognized as one of the most significant tasks in time series analysis. Despite the extensive literature on offline CPD, unsupervised online CPD still suffers from major challenges, including scalability, hyperparameter tuning, and learning constraints. To mitigate some of these challenges, in this paper, we propose a novel deep learning approach for unsupervised online CPD from multi-dimensional time series, named Adaptive LSTM-Autoencoder Change-Point Detection (ALACPD). ALACPD exploits an LSTM-autoencoder-based neural network to perform unsupervised online CPD. It continuously adapts to the incoming samples without keeping the previously received input, thus being memory-free. We perform an extensive evaluation on several real-world time series CPD benchmarks. We show that ALACPD, on average, ranks first among state-of-the-art CPD algorithms in terms of quality of the time series segmentation, and it is on par with the best performer in terms of the accuracy of the estimated change-points. The implementation of ALACPD is available online on Github\footnote{\url{https://github.com/zahraatashgahi/ALACPD}}.

arxiv情報

著者 Zahra Atashgahi,Decebal Constantin Mocanu,Raymond Veldhuis,Mykola Pechenizkiy
発行日 2023-12-06 13:59:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク