Directed Chain Generative Adversarial Networks

要約

タイトル:Directed Chain Generative Adversarial Networks
要約:

– 現実のデータは多様な分布を持つことがある。例えば、コミュニティ内の意見の分裂やニューロンの電気信号の分布、振り子の自然周波数などが挙げられる。
– 既存の生成対抗的ネットワーク(GAN)では、多様な分布を持つ現実のデータの生成が困難である。
– 本論文では、有限次元GANである方向チェーンGAN(DC-GAN)を提案する。DC-GANは、分布制約付きの方向チェーン確率微分方程式の漂流および拡散係数に時系列データセット(入力としての方向チェーンの近傍プロセスと呼ばれる)を挿入することによって、同じ分布の新しい時系列データを生成することができる。
– 提案されたDC-GANは、社会科学と計算神経科学からの2つの確率モデルと、株価とエネルギー消費量の2つの実世界のデータセットを含む4つのデータセットで評価された。DC-GANは、分布、データの類似性、予測能力の観点から見て、従来法よりも優れた性能を発揮した。
– DC-GANは、多様な分布を持つ時系列データの生成に成功した初めての作品であり、その性能は優れている。

要約(オリジナル)

Real-world data can be multimodal distributed, e.g., data describing the opinion divergence in a community, the interspike interval distribution of neurons, and the oscillators natural frequencies. Generating multimodal distributed real-world data has become a challenge to existing generative adversarial networks (GANs). For example, neural stochastic differential equations (Neural SDEs), treated as infinite-dimensional GANs, have demonstrated successful performance mainly in generating unimodal time series data. In this paper, we propose a novel time series generator, named directed chain GANs (DC-GANs), which inserts a time series dataset (called a neighborhood process of the directed chain or input) into the drift and diffusion coefficients of the directed chain SDEs with distributional constraints. DC-GANs can generate new time series of the same distribution as the neighborhood process, and the neighborhood process will provide the key step in learning and generating multimodal distributed time series. The proposed DC-GANs are examined on four datasets, including two stochastic models from social sciences and computational neuroscience, and two real-world datasets on stock prices and energy consumption. To our best knowledge, DC-GANs are the first work that can generate multimodal time series data and consistently outperforms state-of-the-art benchmarks with respect to measures of distribution, data similarity, and predictive ability.

arxiv情報

著者 Ming Min,Ruimeng Hu,Tomoyuki Ichiba
発行日 2023-05-05 02:21:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, math.PR パーマリンク