cond-mat.dis-nn」カテゴリーアーカイブ

Generative modeling through internal high-dimensional chaotic activity

要約 生成モデリングは、統計的特性がトレーニング データセット内のものに似た新し … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Generative modeling through internal high-dimensional chaotic activity はコメントを受け付けていません

Learning Coarse-Grained Dynamics on Graph

要約 グラフ上の粗粒度の動的システムを識別するために、グラフ ニューラル ネット … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, cs.NA, math.NA | Learning Coarse-Grained Dynamics on Graph はコメントを受け付けていません

Restoring balance: principled under/oversampling of data for optimal classification

要約 実世界のデータにおけるクラスの不均衡は、過小評価されている例で適切な一般化 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Restoring balance: principled under/oversampling of data for optimal classification はコメントを受け付けていません

A method for quantifying the generalization capabilities of generative models for solving Ising models

要約 複雑なエネルギーランドスケープを持つイジングモデルの場合、基底状態をニュー … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG | A method for quantifying the generalization capabilities of generative models for solving Ising models はコメントを受け付けていません

KAN: Kolmogorov-Arnold Networks

要約 コルモゴロフ-アーノルド表現定理に触発されて、私たちは多層パーセプトロン … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG, stat.ML | KAN: Kolmogorov-Arnold Networks はコメントを受け付けていません

Scaling and renormalization in high-dimensional regression

要約 この論文では、ランダム行列理論と自由確率の基本ツールを使用した、さまざまな … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Scaling and renormalization in high-dimensional regression はコメントを受け付けていません

From Empirical Observations to Universality: Dynamics of Deep Learning with Inputs Built on Gaussian mixture

要約 この研究は、混合ガウス (GM) への構造的特性を示す入力を使用してニュー … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG, stat.ML | From Empirical Observations to Universality: Dynamics of Deep Learning with Inputs Built on Gaussian mixture はコメントを受け付けていません

KAN: Kolmogorov-Arnold Networks

要約 コルモゴロフ-アーノルド表現定理に触発されて、私たちは多層パーセプトロン … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG, stat.ML | KAN: Kolmogorov-Arnold Networks はコメントを受け付けていません

An exactly solvable model for emergence and scaling laws

要約 深層学習モデルは、トレーニング時間 ($T$)、トレーニング データ ($ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | An exactly solvable model for emergence and scaling laws はコメントを受け付けていません

How Deep Networks Learn Sparse and Hierarchical Data: the Sparse Random Hierarchy Model

要約 高次元データを学習可能にするものを理解することは、機械学習における基本的な … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | How Deep Networks Learn Sparse and Hierarchical Data: the Sparse Random Hierarchy Model はコメントを受け付けていません