-
最近の投稿
- Exploring Modular Mobility: Industry Advancements, Research Trends, and Future Directions on Modular Autonomous Vehicles
- Causal Composition Diffusion Model for Closed-loop Traffic Generation
- DRAL: Deep Reinforcement Adaptive Learning for Multi-UAVs Navigation in Unknown Indoor Environment
- Asynchronous Training of Mixed-Role Human Actors in a Partially-Observable Environment
- LMV-RPA: Large Model Voting-based Robotic Process Automation
-
最近のコメント
表示できるコメントはありません。 cs.AI (31450) cs.CL (23788) cs.CR (2442) cs.CV (37795) cs.LG (36318) cs.RO (18381) cs.SY (2817) eess.IV (4541) eess.SY (2811) stat.ML (4821)
「cond-mat.dis-nn」カテゴリーアーカイブ
The Training Process of Many Deep Networks Explores the Same Low-Dimensional Manifold
要約 私たちは、トレーニング中にディープネットワークの予測の軌跡を分析するための … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
The Training Process of Many Deep Networks Explores the Same Low-Dimensional Manifold はコメントを受け付けていません
Neural network representation of quantum systems
要約 ガウス過程に近いランダムワイドニューラルネットワークは、ガウス固定点の周り … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG, hep-th, quant-ph
Neural network representation of quantum systems はコメントを受け付けていません
Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation
要約 合成ガウス データの確率的勾配降下法 (SGD) の連続限界内で、単層およ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG
Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation はコメントを受け付けていません
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models
要約 NLP における Transformer アーキテクチャの優れたパフォーマ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models はコメントを受け付けていません
Machine learning reveals features of spinon Fermi surface
要約 強く相互作用する量子ハミルトニアンのシミュレーションが急速に進歩するにつれ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.str-el, cs.LG, quant-ph
Machine learning reveals features of spinon Fermi surface はコメントを受け付けていません
Stability-Aware Training of Neural Network Interatomic Potentials with Differentiable Boltzmann Estimators
要約 ニューラル ネットワーク原子間ポテンシャル (NNIP) は、分子動力学 … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph
Stability-Aware Training of Neural Network Interatomic Potentials with Differentiable Boltzmann Estimators はコメントを受け付けていません
Asymptotics of Learning with Deep Structured (Random) Features
要約 大きなクラスの特徴マップについては、入力次元、隠れ層の幅、トレーニング サ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, math.ST, stat.ML, stat.TH
Asymptotics of Learning with Deep Structured (Random) Features はコメントを受け付けていません
Random features and polynomial rules
要約 ランダム特徴モデルは、深層学習の理論において顕著な役割を果たし、無限幅の限 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
Random features and polynomial rules はコメントを受け付けていません
Asymptotics of feature learning in two-layer networks after one gradient-step
要約 この原稿では、単一の勾配降下ステップでトレーニングされた後、2 層ニューラ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Asymptotics of feature learning in two-layer networks after one gradient-step はコメントを受け付けていません
What does self-attention learn from Masked Language Modelling?
要約 トランスフォーマーは、自然言語処理と機械学習に革命をもたらしたニューラル … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, stat.ML
What does self-attention learn from Masked Language Modelling? はコメントを受け付けていません