要約
Generative Adversarial Networks (GAN) は、テキストや画像の生成などの分野で計り知れない可能性を示しています。
GAN を統計力学モデルに活用する試みが報告されたのはごく最近のことです。
ここでは、格子上のプロトタイプの確率過程にこのアプローチを適用することで、このアプローチを定量的にテストします。
元のデータにノイズを適切に追加することで、Generator と Discriminator の両方の損失関数を理想的な値に近づけることに成功しました。
重要なのは、ノイズがあってもモデルの離散性が保たれていることです。
敵対的アプローチの典型として、収束限界付近の振動は大きなエポックでも持続します。
これにより、モデルの選択と生成された軌道の品質が損なわれます。
ジェネレーターをランダムに選択して各ステップで確率的軌道を進める単純なマルチモデル手順により、精度が大幅に向上することを示します。
これは、予測される平衡確率分布と脱出時間分布の両方の定量的分析によって示されます。
報告された調査結果に基づいて、GAN は機械学習技術によって複雑な統計ダイナミクスに取り組むための有望なツールであると考えています。
要約(オリジナル)
Generative Adversarial Networks (GANs) have shown immense potential in fields such as text and image generation. Only very recently attempts to exploit GANs to statistical-mechanics models have been reported. Here we quantitatively test this approach by applying it to a prototypical stochastic process on a lattice. By suitably adding noise to the original data we succeed in bringing both the Generator and the Discriminator loss functions close to their ideal value. Importantly, the discreteness of the model is retained despite the noise. As typical for adversarial approaches, oscillations around the convergence limit persist also at large epochs. This undermines model selection and the quality of the generated trajectories. We demonstrate that a simple multi-model procedure where stochastic trajectories are advanced at each step upon randomly selecting a Generator leads to a remarkable increase in accuracy. This is illustrated by quantitative analysis of both the predicted equilibrium probability distribution and of the escape-time distribution. Based on the reported findings, we believe that GANs are a promising tool to tackle complex statistical dynamics by machine learning techniques
arxiv情報
著者 | Daniele Lanzoni,Olivier Pierre-Louis,Francesco Montalenti |
発行日 | 2023-08-01 12:23:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google