要約
現在の生成モデルは、時系列合成において有望なパフォーマンスを達成していますが、データ形式 (規則性など) を強く仮定するか、生データを単純化するために前処理アプローチ (補間など) に依存しています。
この研究では、サンプリングの不規則性、欠損、および大きな特徴時間次元を含む 3 つの一般的な悪い特性を持つ時系列のクラスを考慮し、そのような複雑な時系列を処理するための一般モデル TS-Diffusion を導入します。
私たちのモデルは、点プロセスのフレームワークの下で 3 つの部分で構成されます。
最初の部分は、時系列を密な表現に変換するニューラル常微分方程式 (ODE) のエンコーダーであり、サンプリングの不規則性を捕捉するためのジャンプ技術と、欠損値を処理するための自己注意メカニズムを備えています。
TS-Diffusion の 2 番目のコンポーネントは、時系列の表現から学習する拡散モデルです。
これらの時系列表現は、次元が高いため、複雑な分布を持つ可能性があります。
3 番目の部分は、表現に応じて不規則性と欠損値を含む時系列を生成する別の ODE のデコーダーです。
私たちは複数の時系列データセットに対して広範な実験を実施し、TS-Diffusion が従来の時系列と複雑な時系列の両方で優れた結果を達成し、以前のベースラインを大幅に上回るパフォーマンスを示したことが実証されました。
要約(オリジナル)
While current generative models have achieved promising performances in time-series synthesis, they either make strong assumptions on the data format (e.g., regularities) or rely on pre-processing approaches (e.g., interpolations) to simplify the raw data. In this work, we consider a class of time series with three common bad properties, including sampling irregularities, missingness, and large feature-temporal dimensions, and introduce a general model, TS-Diffusion, to process such complex time series. Our model consists of three parts under the framework of point process. The first part is an encoder of the neural ordinary differential equation (ODE) that converts time series into dense representations, with the jump technique to capture sampling irregularities and self-attention mechanism to handle missing values; The second component of TS-Diffusion is a diffusion model that learns from the representation of time series. These time-series representations can have a complex distribution because of their high dimensions; The third part is a decoder of another ODE that generates time series with irregularities and missing values given their representations. We have conducted extensive experiments on multiple time-series datasets, demonstrating that TS-Diffusion achieves excellent results on both conventional and complex time series and significantly outperforms previous baselines.
arxiv情報
著者 | Yangming Li |
発行日 | 2023-11-06 17:52:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google