Continuous-time Autoencoders for Regular and Irregular Time Series Imputation

要約

時系列の代入は、時系列の最も基本的なタスクの 1 つです。
現実世界の時系列データセットは不完全である (または観測値が欠落している不規則な) ことがよくあり、その場合は代入が強く必要となります。
多くの異なる時系列補完方法が提案されています。
最近の自己注意ベースの手法は、最先端の代入パフォーマンスを示しています。
しかし、連続時間リカレント ニューラル ネットワーク (RNN)、つまりニューラル制御微分方程式 (NCDE) に基づく代入手法の設計は長い間見落とされてきました。
この目的を達成するために、NCDE に基づいて時系列 (変分) オートエンコーダーを再設計します。
連続時間オートエンコーダ (CTA) と呼ばれる私たちの方法は、入力時系列サンプルを (隠れベクトルではなく) 連続隠れパスにエンコードし、それをデコードして入力を再構築して代入します。
4 つのデータセットと 19 のベースラインを使用した実験では、私たちの方法はほぼすべてのケースで最高の代入パフォーマンスを示しました。

要約(オリジナル)

Time series imputation is one of the most fundamental tasks for time series. Real-world time series datasets are frequently incomplete (or irregular with missing observations), in which case imputation is strongly required. Many different time series imputation methods have been proposed. Recent self-attention-based methods show the state-of-the-art imputation performance. However, it has been overlooked for a long time to design an imputation method based on continuous-time recurrent neural networks (RNNs), i.e., neural controlled differential equations (NCDEs). To this end, we redesign time series (variational) autoencoders based on NCDEs. Our method, called continuous-time autoencoder (CTA), encodes an input time series sample into a continuous hidden path (rather than a hidden vector) and decodes it to reconstruct and impute the input. In our experiments with 4 datasets and 19 baselines, our method shows the best imputation performance in almost all cases.

arxiv情報

著者 Hyowon Wi,Yehjin Shin,Noseong Park
発行日 2023-12-29 07:21:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IR, cs.LG パーマリンク