-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cond-mat.dis-nn」カテゴリーアーカイブ
(How) Can Transformers Predict Pseudo-Random Numbers?
要約 変圧器は、順次データのパターンの発見に優れていますが、その基本的な制限と学 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.CR, cs.LG, stat.ML
(How) Can Transformers Predict Pseudo-Random Numbers? はコメントを受け付けていません
A note on the physical interpretation of neural PDE’s
要約 機械学習(ML)アルゴリズムと離散動的システム(DDS)との間の正式かつ実 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, physics.comp-ph
A note on the physical interpretation of neural PDE’s はコメントを受け付けていません
Two-Point Deterministic Equivalence for Stochastic Gradient Dynamics in Linear Models
要約 本論文では、ランダム行列resolventの2点関数に関する新しい決定論的 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Two-Point Deterministic Equivalence for Stochastic Gradient Dynamics in Linear Models はコメントを受け付けていません
In-context denoising with one-layer transformers: connections between attention and associative memory retrieval
要約 現代のホップフィールドネットワークとしても知られる、注意ベースのアーキテク … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
In-context denoising with one-layer transformers: connections between attention and associative memory retrieval はコメントを受け付けていません
Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer
要約 我々は、ランダムな初期化から大きな幅で訓練された深層線形ネットワークにおけ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer はコメントを受け付けていません
Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer
要約 我々は、ランダムな初期化から大きな幅で訓練された深層線形ネットワークにおけ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer はコメントを受け付けていません
Optimal Spectral Transitions in High-Dimensional Multi-Index Models
要約 我々は、ガウス多指数モデルから、関連する指数部分空間を弱再構築するのに必要 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
Optimal Spectral Transitions in High-Dimensional Multi-Index Models はコメントを受け付けていません
Random features and polynomial rules
要約 ランダムな特徴モデルは、深い学習の理論において際立った役割を果たし、無限の … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
Random features and polynomial rules はコメントを受け付けていません
Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation
要約 幅$ k $と入力寸法$ d $が大きく比例している完全に訓練された2層ニ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.IT, cs.LG, math.IT, stat.ML
Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation はコメントを受け付けていません
The Effect of Optimal Self-Distillation in Noisy Gaussian Mixture Model
要約 モデルが独自の予測からそれ自体を改良する手法である自己抵抗(SD)は、機械 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
The Effect of Optimal Self-Distillation in Noisy Gaussian Mixture Model はコメントを受け付けていません