-
最近の投稿
- Computing High-dimensional Confidence Sets for Arbitrary Distributions
- Reservoir Computing: A New Paradigm for Neural Networks
- A Dynamic, Ordinal Gaussian Process Item Response Theoretic Model
- Solving the Paint Shop Problem with Flexible Management of Multi-Lane Buffers Using Reinforcement Learning and Action Masking
- MiLo: Efficient Quantized MoE Inference with Mixture of Low-Rank Compensators
-
最近のコメント
表示できるコメントはありません。 cs.AI (36107) cs.CL (27319) cs.CR (2749) cs.CV (41949) cs.LG (41080) cs.RO (21304) cs.SY (3219) eess.IV (4921) eess.SY (3213) stat.ML (5380)
「cond-mat.dis-nn」カテゴリーアーカイブ
Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks
要約 2つのクラスの連続非凸重量モデルを使用して、ランダムパターンラベル関連を保 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, math.PR
コメントする
Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation
要約 幅$ k $と入力寸法$ d $が大きく比例している完全に訓練された2層ニ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.IT, cs.LG, math.IT, stat.ML
コメントする
Exploring the Energy Landscape of RBMs: Reciprocal Space Insights into Bosons, Hierarchical Learning and Symmetry Breaking
要約 深い生成モデルは、複雑な分布から学習してサンプリングする能力により、遍在し … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
コメントする
Communities in the Kuramoto Model: Dynamics and Detection via Path Signatures
要約 多変量動的プロセスの動作は、システムのコンポーネントを関連付ける基礎となる … 続きを読む
Natural Quantization of Neural Networks
要約 ニューロンがキュービットに対応し、活性化関数が量子ゲートと測定を介して実装 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, quant-ph
Natural Quantization of Neural Networks はコメントを受け付けていません
On the phase diagram of extensive-rank symmetric matrix denoising beyond rotational invariance
要約 マトリックスの脱化は、信号処理と機械学習の中心です。 推測するマトリックス … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.IT, cs.LG, math.IT
On the phase diagram of extensive-rank symmetric matrix denoising beyond rotational invariance はコメントを受け付けていません
When Can You Get Away with Low Memory Adam?
要約 Adamは、最新の機械学習モデルをトレーニングするためのオプティマイザーで … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
When Can You Get Away with Low Memory Adam? はコメントを受け付けていません
Dynamical Decoupling of Generalization and Overfitting in Large Two-Layer Networks
要約 大規模な機械学習モデルの帰納的バイアスと一般化特性は、トレーニングに使用さ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Dynamical Decoupling of Generalization and Overfitting in Large Two-Layer Networks はコメントを受け付けていません
Formation of Representations in Neural Networks
要約 神経表現を理解することは、ニューラルネットワークのブラックボックスを開き、 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
Formation of Representations in Neural Networks はコメントを受け付けていません
Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators
要約 機械学習力フィールド(MLFF)は、分子動力学(MD)シミュレーションのた … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph
Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators はコメントを受け付けていません