Generative modeling through internal high-dimensional chaotic activity

要約

生成モデリングは、統計的特性がトレーニング データセット内のものに似た新しいデータポイントを生成することを目的としています。
近年、この目標を優れたパフォーマンスで達成できる機械学習技術と設定が急増しています。
これらの設定のほとんどでは、トレーニング データセットをノイズと組み合わせて使用​​します。ノイズは統計的変動のソースとして追加され、生成タスクに不可欠です。
ここでは、トレーニング データセットから新しいデータポイントを生成する方法として、高次元カオス システムで内部カオス ダイナミクスを使用するというアイデアを検討します。
我々は、単純な学習ルールが一連のバニラ アーキテクチャ内でこの目標を達成し、標準的な精度測定を通じて生成されたデータポイントの品質を特徴付けることができることを示します。

要約(オリジナル)

Generative modeling aims at producing new datapoints whose statistical properties resemble the ones in a training dataset. In recent years, there has been a burst of machine learning techniques and settings that can achieve this goal with remarkable performances. In most of these settings, one uses the training dataset in conjunction with noise, which is added as a source of statistical variability and is essential for the generative task. Here, we explore the idea of using internal chaotic dynamics in high-dimensional chaotic systems as a way to generate new datapoints from a training dataset. We show that simple learning rules can achieve this goal within a set of vanilla architectures and characterize the quality of the generated datapoints through standard accuracy measures.

arxiv情報

著者 Samantha J. Fournier,Pierfrancesco Urbani
発行日 2024-05-17 14:43:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.dis-nn, cs.LG パーマリンク