Time-series Generation by Contrastive Imitation

要約

時系列データの生成モデルを学習することを検討してください。
シーケンシャル設定には独特の課題が生じます。ジェネレーターは (段階的) 遷移の条件付きダイナミクスをキャプチャするだけでなく、その開ループ ロールアウトでは (マルチステップ) 軌道の同時分布も保存する必要があります。
一方で、MLE によってトレーニングされた自己回帰モデルでは、明示的な遷移分布の学習と計算が可能ですが、ロールアウト中に複合誤差が発生します。
一方、GAN トレーニングに基づく敵対的モデルは、そのような暴露バイアスを軽減しますが、移行は暗黙的であり、評価するのが困難です。
この研究では、両方の長所を組み合わせようとする生成フレームワークを研究します。複利誤差を軽減するモーメントマッチング目標を動機として、強化シグナルが提供されるローカル (ただし将来を見据えた) 移行ポリシーを最適化します。
対照的な推定によってトレーニングされたグローバル (ただし段階的に分解可能な) エネルギー モデル。
トレーニングでは、2 つのコンポーネントが協力して学習され、敵対的な目標に特有の不安定性が回避されます。
推論時、学習されたポリシーは反復サンプリングのジェネレーターとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌跡レベルの尺度として機能します。
データセット内の時系列特徴の連続的な動作を模倣するポリシーを明示的にトレーニングすることにより、このアプローチは「模倣による生成」を具体化します。
理論的には、この定式化の正確さとアルゴリズムの一貫性を説明します。
私たちは、実世界のデータセットから予測に役立つサンプルを生成する能力を経験的に評価し、既存のベンチマークの標準で動作することを検証します。

要約(オリジナル)

Consider learning a generative model for time-series data. The sequential setting poses a unique challenge: Not only should the generator capture the conditional dynamics of (stepwise) transitions, but its open-loop rollouts should also preserve the joint distribution of (multi-step) trajectories. On one hand, autoregressive models trained by MLE allow learning and computing explicit transition distributions, but suffer from compounding error during rollouts. On the other hand, adversarial models based on GAN training alleviate such exposure bias, but transitions are implicit and hard to assess. In this work, we study a generative framework that seeks to combine the strengths of both: Motivated by a moment-matching objective to mitigate compounding error, we optimize a local (but forward-looking) transition policy, where the reinforcement signal is provided by a global (but stepwise-decomposable) energy model trained by contrastive estimation. At training, the two components are learned cooperatively, avoiding the instabilities typical of adversarial objectives. At inference, the learned policy serves as the generator for iterative sampling, and the learned energy serves as a trajectory-level measure for evaluating sample quality. By expressly training a policy to imitate sequential behavior of time-series features in a dataset, this approach embodies ‘generation by imitation’. Theoretically, we illustrate the correctness of this formulation and the consistency of the algorithm. Empirically, we evaluate its ability to generate predictively useful samples from real-world datasets, verifying that it performs at the standard of existing benchmarks.

arxiv情報

著者 Daniel Jarrett,Ioana Bica,Mihaela van der Schaar
発行日 2023-11-02 16:45:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク