要約
現在の敵対的生成ネットワーク (GAN) ベースの時系列生成アプローチは、最適ではない収束、埋め込み空間での情報損失、不安定性などの課題に直面しています。
これらの課題を克服するために、オートエンコーダーによって生成された埋め込み空間の利点と GAN の敵対的トレーニング ダイナミクスを統合する高度なフレームワークを導入します。
この方法では 2 つのディスクリミネーターが使用されます。1 つはジェネレーターを具体的にガイドするもので、もう 1 つはオートエンコーダーとジェネレーターの出力の両方を調整するものです。
さらに、私たちのフレームワークには、新しいオートエンコーダーベースの損失関数と、データの段階的な条件付き分布をキャプチャする教師強制スーパーバイザーネットワークからの監視が組み込まれています。
ジェネレーターは潜在空間内で動作しますが、2 つのディスクリミネーターは潜在空間と特徴空間で別々に動作し、ジェネレーターとオートエンコーダーの両方に重要なフィードバックを提供します。
この二重識別子のアプローチを活用することで、埋め込み空間での情報損失を最小限に抑えます。
共同トレーニングを通じて、当社のフレームワークは忠実度の高い時系列データの生成に優れており、さまざまな実際および合成の多変量時系列データセットにわたって、定性的および定量的に既存の最先端のベンチマークを常に上回っています。
要約(オリジナル)
Current Generative Adversarial Network (GAN)-based approaches for time series generation face challenges such as suboptimal convergence, information loss in embedding spaces, and instability. To overcome these challenges, we introduce an advanced framework that integrates the advantages of an autoencoder-generated embedding space with the adversarial training dynamics of GANs. This method employs two discriminators: one to specifically guide the generator and another to refine both the autoencoder’s and generator’s output. Additionally, our framework incorporates a novel autoencoder-based loss function and supervision from a teacher-forcing supervisor network, which captures the stepwise conditional distributions of the data. The generator operates within the latent space, while the two discriminators work on latent and feature spaces separately, providing crucial feedback to both the generator and the autoencoder. By leveraging this dual-discriminator approach, we minimize information loss in the embedding space. Through joint training, our framework excels at generating high-fidelity time series data, consistently outperforming existing state-of-the-art benchmarks both qualitatively and quantitatively across a range of real and synthetic multivariate time series datasets.
arxiv情報
著者 | MohammadReza EskandariNasab,Shah Muhammad Hamdi,Soukaina Filali Boubrahimi |
発行日 | 2024-10-28 16:49:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google