-
最近の投稿
- Competency-Aware Planning for Probabilistically Safe Navigation Under Perception Uncertainty
- RLPP: A Residual Method for Zero-Shot Real-World Autonomous Racing on Scaled Platforms
- Surena-V: A Humanoid Robot for Human-Robot Collaboration with Optimization-based Control Architecture
- Safe and Trustworthy Robot Pathfinding with BIM, MHA*, and NLP
- An Efficient Numerical Function Optimization Framework for Constrained Nonlinear Robotic Problems
-
最近のコメント
表示できるコメントはありません。 cs.AI (32928) cs.CL (24893) cs.CR (2546) cs.CV (39070) cs.LG (37830) cs.RO (19150) cs.SY (2930) eess.IV (4679) eess.SY (2924) stat.ML (4977)
「cond-mat.dis-nn」カテゴリーアーカイブ
The Training Process of Many Deep Networks Explores the Same Low-Dimensional Manifold
要約 私たちは、トレーニング中にディープネットワークの予測の軌跡を分析するための … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
The Training Process of Many Deep Networks Explores the Same Low-Dimensional Manifold はコメントを受け付けていません
Neural network representation of quantum systems
要約 ガウス過程に近いランダムワイドニューラルネットワークは、ガウス固定点の周り … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG, hep-th, quant-ph
Neural network representation of quantum systems はコメントを受け付けていません
Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation
要約 合成ガウス データの確率的勾配降下法 (SGD) の連続限界内で、単層およ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG
Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation はコメントを受け付けていません
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models
要約 NLP における Transformer アーキテクチャの優れたパフォーマ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models はコメントを受け付けていません
Machine learning reveals features of spinon Fermi surface
要約 強く相互作用する量子ハミルトニアンのシミュレーションが急速に進歩するにつれ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.str-el, cs.LG, quant-ph
Machine learning reveals features of spinon Fermi surface はコメントを受け付けていません
Stability-Aware Training of Neural Network Interatomic Potentials with Differentiable Boltzmann Estimators
要約 ニューラル ネットワーク原子間ポテンシャル (NNIP) は、分子動力学 … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph
Stability-Aware Training of Neural Network Interatomic Potentials with Differentiable Boltzmann Estimators はコメントを受け付けていません
Asymptotics of Learning with Deep Structured (Random) Features
要約 大きなクラスの特徴マップについては、入力次元、隠れ層の幅、トレーニング サ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, math.ST, stat.ML, stat.TH
Asymptotics of Learning with Deep Structured (Random) Features はコメントを受け付けていません
Random features and polynomial rules
要約 ランダム特徴モデルは、深層学習の理論において顕著な役割を果たし、無限幅の限 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
Random features and polynomial rules はコメントを受け付けていません
Asymptotics of feature learning in two-layer networks after one gradient-step
要約 この原稿では、単一の勾配降下ステップでトレーニングされた後、2 層ニューラ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Asymptotics of feature learning in two-layer networks after one gradient-step はコメントを受け付けていません
What does self-attention learn from Masked Language Modelling?
要約 トランスフォーマーは、自然言語処理と機械学習に革命をもたらしたニューラル … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, stat.ML
What does self-attention learn from Masked Language Modelling? はコメントを受け付けていません