Towards Controllable Time Series Generation

要約

時系列生成 (TSG) は、現実世界の時系列を正確に反映するデータを合成するための極めて重要な技術として浮上しており、多くのアプリケーションで不可欠なものとなっています。
TSG は大幅に進歩しましたが、その有効性は多くの場合、大規模なトレーニング データセットの有無にかかっています。
この依存関係は、データが不足しているシナリオ、特にまれな条件や特殊な条件に対処する場合に大きな課題を引き起こします。
これらの課題に対処するために、私たちは制御可能な時系列生成 (CTSG) という新しい問題を調査し、さまざまな外部条件に適応できる合成時系列を生成し、それによってデータ不足の問題に取り組むことを目指しています。
この論文では、CTSG 向けに調整された革新的な VAE に依存しないフレームワークである \textbf{C}ontrollable \textbf{T}ime \textbf{S}eries (\textsf{CTS}) を提案します。
\textsf{CTS} の重要な特徴は、マッピング プロセスを標準の VAE トレーニングから切り離し、潜在的な特徴と外部条件の間の複雑な相互作用を正確に学習できることです。
さらに、CTSGの総合的な評価スキームを開発します。
3 つの現実世界の時系列データセットにわたる広範な実験により、高品質で制御可能な出力を生成する \textsf{CTS} の卓越した機能が実証されました。
これは、潜在的な機能と外部条件をシームレスに統合するのが巧みであることを強調しています。
\textsf{CTS} を画像ドメインに拡張すると、その説明可能性の顕著な可能性が強調され、さまざまなモダリティにわたるその多用途性がさらに強化されます。

要約(オリジナル)

Time Series Generation (TSG) has emerged as a pivotal technique in synthesizing data that accurately mirrors real-world time series, becoming indispensable in numerous applications. Despite significant advancements in TSG, its efficacy frequently hinges on having large training datasets. This dependency presents a substantial challenge in data-scarce scenarios, especially when dealing with rare or unique conditions. To confront these challenges, we explore a new problem of Controllable Time Series Generation (CTSG), aiming to produce synthetic time series that can adapt to various external conditions, thereby tackling the data scarcity issue. In this paper, we propose \textbf{C}ontrollable \textbf{T}ime \textbf{S}eries (\textsf{CTS}), an innovative VAE-agnostic framework tailored for CTSG. A key feature of \textsf{CTS} is that it decouples the mapping process from standard VAE training, enabling precise learning of a complex interplay between latent features and external conditions. Moreover, we develop a comprehensive evaluation scheme for CTSG. Extensive experiments across three real-world time series datasets showcase \textsf{CTS}’s exceptional capabilities in generating high-quality, controllable outputs. This underscores its adeptness in seamlessly integrating latent features with external conditions. Extending \textsf{CTS} to the image domain highlights its remarkable potential for explainability and further reinforces its versatility across different modalities.

arxiv情報

著者 Yifan Bao,Yihao Ang,Qiang Huang,Anthony K. H. Tung,Zhiyong Huang
発行日 2024-03-06 13:27:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DB, cs.LG パーマリンク