-
最近の投稿
- An Adversarial Analysis of Thompson Sampling for Full-information Online Learning: from Finite to Infinite Action Spaces
- Data-Constrained Synthesis of Training Data for De-Identification
- AlphaMaze: Enhancing Large Language Models’ Spatial Intelligence via GRPO
- Temporal Misalignment in ANN-SNN Conversion and Its Mitigation via Probabilistic Spiking Neurons
- ChatVLA: Unified Multimodal Understanding and Robot Control with Vision-Language-Action Model
-
最近のコメント
表示できるコメントはありません。 cs.AI (34033) cs.CL (25731) cs.CR (2616) cs.CV (39970) cs.LG (39035) cs.RO (19852) cs.SY (3019) eess.IV (4758) eess.SY (3013) stat.ML (5151)
「cond-mat.stat-mech」カテゴリーアーカイブ
Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation
要約 合成ガウス データの確率的勾配降下法 (SGD) の連続限界内で、単層およ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG
Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation はコメントを受け付けていません
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models
要約 NLP における Transformer アーキテクチャの優れたパフォーマ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models はコメントを受け付けていません
Exact Fractional Inference via Re-Parametrization & Interpolation between Tree-Re-Weighted- and Belief Propagation- Algorithms
要約 $N$ の「スピン」のグラフに対するイジング モデルの分配関数 $Z$ を … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG
Exact Fractional Inference via Re-Parametrization & Interpolation between Tree-Re-Weighted- and Belief Propagation- Algorithms はコメントを受け付けていません
Training normalizing flows with computationally intensive target probability distributions
要約 機械学習技術、特にいわゆる正規化フローは、ターゲットの確率分布を効果的に近 … 続きを読む
カテゴリー: cc:68T07, cond-mat.stat-mech, cs.LG, hep-lat, I.2.6
Training normalizing flows with computationally intensive target probability distributions はコメントを受け付けていません
Dynamical Regimes of Diffusion Models
要約 統計物理学的手法を使用して、空間の次元とデータ数が大きく、スコア関数が最適 … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG
Dynamical Regimes of Diffusion Models はコメントを受け付けていません
Learning from higher-order statistics, efficiently: hypothesis tests, random features, and neural networks
要約 ニューラル ネットワークは、高次元データ セット内の統計パターンを発見する … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG, stat.ML
Learning from higher-order statistics, efficiently: hypothesis tests, random features, and neural networks はコメントを受け付けていません
What does self-attention learn from Masked Language Modelling?
要約 トランスフォーマーは、自然言語処理と機械学習に革命をもたらしたニューラル … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, stat.ML
What does self-attention learn from Masked Language Modelling? はコメントを受け付けていません
$α$-divergence Improves the Entropy Production Estimation via Machine Learning
要約 近年、機械学習による軌道データからの確率的エントロピー生成 (EP) のア … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG, stat.ML
$α$-divergence Improves the Entropy Production Estimation via Machine Learning はコメントを受け付けていません
Weak Correlations as the Underlying Principle for Linearization of Gradient-Based Learning Systems
要約 ワイド ニューラル ネットワークなどの深層学習モデルは、相互作用する多数の … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG, hep-th, math.PR, stat.ML
Weak Correlations as the Underlying Principle for Linearization of Gradient-Based Learning Systems はコメントを受け付けていません
Maximum diffusion reinforcement learning
要約 データは独立しており、同一に分散されているという前提が、すべての機械学習の … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.AI, cs.LG, cs.RO
Maximum diffusion reinforcement learning はコメントを受け付けていません