-
最近の投稿
- Learning to Recover: Dynamic Reward Shaping with Wheel-Leg Coordination for Fallen Robots
- An Integrated Visual Servoing Framework for Precise Robotic Pruning Operations in Modern Commercial Orchard
- Adaptive Locomotion on Mud through Proprioceptive Sensing of Substrate Properties
- TD-TOG Dataset: Benchmarking Zero-Shot and One-Shot Task-Oriented Grasping for Object Generalization
- Hierarchical Intention-Aware Expressive Motion Generation for Humanoid Robots
-
最近のコメント
表示できるコメントはありません。 cs.AI (39326) cs.CL (29768) cs.CV (44705) cs.HC (2997) cs.LG (44251) cs.RO (23494) cs.SY (3583) eess.IV (5135) eess.SY (3575) stat.ML (5752)
「cond-mat.dis-nn」カテゴリーアーカイブ
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models
要約 NLP における Transformer アーキテクチャの優れたパフォーマ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models はコメントを受け付けていません
Machine learning reveals features of spinon Fermi surface
要約 強く相互作用する量子ハミルトニアンのシミュレーションが急速に進歩するにつれ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.str-el, cs.LG, quant-ph
Machine learning reveals features of spinon Fermi surface はコメントを受け付けていません
Stability-Aware Training of Neural Network Interatomic Potentials with Differentiable Boltzmann Estimators
要約 ニューラル ネットワーク原子間ポテンシャル (NNIP) は、分子動力学 … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph
Stability-Aware Training of Neural Network Interatomic Potentials with Differentiable Boltzmann Estimators はコメントを受け付けていません
Asymptotics of Learning with Deep Structured (Random) Features
要約 大きなクラスの特徴マップについては、入力次元、隠れ層の幅、トレーニング サ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, math.ST, stat.ML, stat.TH
Asymptotics of Learning with Deep Structured (Random) Features はコメントを受け付けていません
Random features and polynomial rules
要約 ランダム特徴モデルは、深層学習の理論において顕著な役割を果たし、無限幅の限 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
Random features and polynomial rules はコメントを受け付けていません
Asymptotics of feature learning in two-layer networks after one gradient-step
要約 この原稿では、単一の勾配降下ステップでトレーニングされた後、2 層ニューラ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Asymptotics of feature learning in two-layer networks after one gradient-step はコメントを受け付けていません
What does self-attention learn from Masked Language Modelling?
要約 トランスフォーマーは、自然言語処理と機械学習に革命をもたらしたニューラル … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, stat.ML
What does self-attention learn from Masked Language Modelling? はコメントを受け付けていません
Hopfield model with planted patterns: a teacher-student self-supervised learning model
要約 ホップフィールド ネットワークはメモリの保存と取得のパラダイム モデルとし … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, math-ph, math.MP
Hopfield model with planted patterns: a teacher-student self-supervised learning model はコメントを受け付けていません
Engineered Ordinary Differential Equations as Classification Algorithm (EODECA): thorough characterization and testing
要約 EODECA (分類アルゴリズムとしての工学的常微分方程式) は、機械学習 … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.LG, cs.NE, nlin.PS
Engineered Ordinary Differential Equations as Classification Algorithm (EODECA): thorough characterization and testing はコメントを受け付けていません
What does self-attention learn from Masked Language Modelling?
要約 トランスフォーマーは、自然言語処理と機械学習に革命をもたらしたニューラル … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, stat.ML
What does self-attention learn from Masked Language Modelling? はコメントを受け付けていません