-
最近の投稿
- Computing High-dimensional Confidence Sets for Arbitrary Distributions
- Reservoir Computing: A New Paradigm for Neural Networks
- A Dynamic, Ordinal Gaussian Process Item Response Theoretic Model
- Solving the Paint Shop Problem with Flexible Management of Multi-Lane Buffers Using Reinforcement Learning and Action Masking
- MiLo: Efficient Quantized MoE Inference with Mixture of Low-Rank Compensators
-
最近のコメント
表示できるコメントはありません。 cs.AI (36107) cs.CL (27319) cs.CR (2749) cs.CV (41949) cs.LG (41080) cs.RO (21304) cs.SY (3219) eess.IV (4921) eess.SY (3213) stat.ML (5380)
「cond-mat.stat-mech」カテゴリーアーカイブ
Hybrid Ground-State Quantum Algorithms based on Neural Schrödinger Forging
要約 エンタングルメント・フォージングに基づく変分アルゴリズムは、基底状態の問題 … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG, quant-ph
Hybrid Ground-State Quantum Algorithms based on Neural Schrödinger Forging はコメントを受け付けていません
Mapping of attention mechanisms to a generalized Potts model
要約 トランスフォーマーは、自然言語処理と機械学習に革命をもたらしたニューラルネ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, stat.ML
Mapping of attention mechanisms to a generalized Potts model はコメントを受け付けていません
Data driven modeling for self-similar dynamics
要約 複雑なシステムのマルチスケール モデリングは、その複雑さを理解するために非 … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG
Data driven modeling for self-similar dynamics はコメントを受け付けていません
Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation
要約 合成ガウス データの確率的勾配降下法 (SGD) の連続限界内で、単層およ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG
Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation はコメントを受け付けていません
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models
要約 NLP における Transformer アーキテクチャの優れたパフォーマ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models はコメントを受け付けていません
Exact Fractional Inference via Re-Parametrization & Interpolation between Tree-Re-Weighted- and Belief Propagation- Algorithms
要約 $N$ の「スピン」のグラフに対するイジング モデルの分配関数 $Z$ を … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG
Exact Fractional Inference via Re-Parametrization & Interpolation between Tree-Re-Weighted- and Belief Propagation- Algorithms はコメントを受け付けていません
Training normalizing flows with computationally intensive target probability distributions
要約 機械学習技術、特にいわゆる正規化フローは、ターゲットの確率分布を効果的に近 … 続きを読む
カテゴリー: cc:68T07, cond-mat.stat-mech, cs.LG, hep-lat, I.2.6
Training normalizing flows with computationally intensive target probability distributions はコメントを受け付けていません
Dynamical Regimes of Diffusion Models
要約 統計物理学的手法を使用して、空間の次元とデータ数が大きく、スコア関数が最適 … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG
Dynamical Regimes of Diffusion Models はコメントを受け付けていません
Learning from higher-order statistics, efficiently: hypothesis tests, random features, and neural networks
要約 ニューラル ネットワークは、高次元データ セット内の統計パターンを発見する … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG, stat.ML
Learning from higher-order statistics, efficiently: hypothesis tests, random features, and neural networks はコメントを受け付けていません
What does self-attention learn from Masked Language Modelling?
要約 トランスフォーマーは、自然言語処理と機械学習に革命をもたらしたニューラル … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, stat.ML
What does self-attention learn from Masked Language Modelling? はコメントを受け付けていません