-
最近の投稿
- Sim-and-Real Co-Training: A Simple Recipe for Vision-Based Robotic Manipulation
- Non-Determinism of ‘Deterministic’ LLM Settings
- Low-resource Machine Translation: what for? who for? An observational study on a dedicated Tetun language translation service
- TeleAntiFraud-28k: An Audio-Text Slow-Thinking Dataset for Telecom Fraud Detection
- Mr. DETR: Instructive Multi-Route Training for Detection Transformers
-
最近のコメント
表示できるコメントはありません。 cs.AI (35981) cs.CL (27219) cs.CR (2743) cs.CV (41828) cs.LG (40950) cs.RO (21217) cs.SY (3206) eess.IV (4914) eess.SY (3200) stat.ML (5368)
「cond-mat.stat-mech」カテゴリーアーカイブ
Hybrid Ground-State Quantum Algorithms based on Neural Schrödinger Forging
要約 エンタングルメント・フォージングに基づく変分アルゴリズムは、基底状態の問題 … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG, quant-ph
Hybrid Ground-State Quantum Algorithms based on Neural Schrödinger Forging はコメントを受け付けていません
Mapping of attention mechanisms to a generalized Potts model
要約 トランスフォーマーは、自然言語処理と機械学習に革命をもたらしたニューラルネ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, stat.ML
Mapping of attention mechanisms to a generalized Potts model はコメントを受け付けていません
Data driven modeling for self-similar dynamics
要約 複雑なシステムのマルチスケール モデリングは、その複雑さを理解するために非 … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG
Data driven modeling for self-similar dynamics はコメントを受け付けていません
Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation
要約 合成ガウス データの確率的勾配降下法 (SGD) の連続限界内で、単層およ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG
Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation はコメントを受け付けていません
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models
要約 NLP における Transformer アーキテクチャの優れたパフォーマ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models はコメントを受け付けていません
Exact Fractional Inference via Re-Parametrization & Interpolation between Tree-Re-Weighted- and Belief Propagation- Algorithms
要約 $N$ の「スピン」のグラフに対するイジング モデルの分配関数 $Z$ を … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG
Exact Fractional Inference via Re-Parametrization & Interpolation between Tree-Re-Weighted- and Belief Propagation- Algorithms はコメントを受け付けていません
Training normalizing flows with computationally intensive target probability distributions
要約 機械学習技術、特にいわゆる正規化フローは、ターゲットの確率分布を効果的に近 … 続きを読む
カテゴリー: cc:68T07, cond-mat.stat-mech, cs.LG, hep-lat, I.2.6
Training normalizing flows with computationally intensive target probability distributions はコメントを受け付けていません
Dynamical Regimes of Diffusion Models
要約 統計物理学的手法を使用して、空間の次元とデータ数が大きく、スコア関数が最適 … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG
Dynamical Regimes of Diffusion Models はコメントを受け付けていません
Learning from higher-order statistics, efficiently: hypothesis tests, random features, and neural networks
要約 ニューラル ネットワークは、高次元データ セット内の統計パターンを発見する … 続きを読む
カテゴリー: cond-mat.stat-mech, cs.LG, stat.ML
Learning from higher-order statistics, efficiently: hypothesis tests, random features, and neural networks はコメントを受け付けていません
What does self-attention learn from Masked Language Modelling?
要約 トランスフォーマーは、自然言語処理と機械学習に革命をもたらしたニューラル … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, stat.ML
What does self-attention learn from Masked Language Modelling? はコメントを受け付けていません