cond-mat.stat-mech」カテゴリーアーカイブ

Data driven modeling for self-similar dynamics

要約 複雑なシステムのマルチスケール モデリングは、その複雑さを理解するために非 … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG | Data driven modeling for self-similar dynamics はコメントを受け付けていません

Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation

要約 合成ガウス データの確率的勾配降下法 (SGD) の連続限界内で、単層およ … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG | Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation はコメントを受け付けていません

The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models

要約 NLP における Transformer アーキテクチャの優れたパフォーマ … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL | The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models はコメントを受け付けていません

Exact Fractional Inference via Re-Parametrization & Interpolation between Tree-Re-Weighted- and Belief Propagation- Algorithms

要約 $N$ の「スピン」のグラフに対するイジング モデルの分配関数 $Z$ を … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG | Exact Fractional Inference via Re-Parametrization & Interpolation between Tree-Re-Weighted- and Belief Propagation- Algorithms はコメントを受け付けていません

Training normalizing flows with computationally intensive target probability distributions

要約 機械学習技術、特にいわゆる正規化フローは、ターゲットの確率分布を効果的に近 … 続きを読む

カテゴリー: cc:68T07, cond-mat.stat-mech, cs.LG, hep-lat, I.2.6 | Training normalizing flows with computationally intensive target probability distributions はコメントを受け付けていません

Dynamical Regimes of Diffusion Models

要約 統計物理学的手法を使用して、空間の次元とデータ数が大きく、スコア関数が最適 … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG | Dynamical Regimes of Diffusion Models はコメントを受け付けていません

Learning from higher-order statistics, efficiently: hypothesis tests, random features, and neural networks

要約 ニューラル ネットワークは、高次元データ セット内の統計パターンを発見する … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG, stat.ML | Learning from higher-order statistics, efficiently: hypothesis tests, random features, and neural networks はコメントを受け付けていません

What does self-attention learn from Masked Language Modelling?

要約 トランスフォーマーは、自然言語処理と機械学習に革命をもたらしたニューラル … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, stat.ML | What does self-attention learn from Masked Language Modelling? はコメントを受け付けていません

$α$-divergence Improves the Entropy Production Estimation via Machine Learning

要約 近年、機械学習による軌道データからの確率的エントロピー生成 (EP) のア … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG, stat.ML | $α$-divergence Improves the Entropy Production Estimation via Machine Learning はコメントを受け付けていません

Weak Correlations as the Underlying Principle for Linearization of Gradient-Based Learning Systems

要約 ワイド ニューラル ネットワークなどの深層学習モデルは、相互作用する多数の … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG, hep-th, math.PR, stat.ML | Weak Correlations as the Underlying Principle for Linearization of Gradient-Based Learning Systems はコメントを受け付けていません