-
最近の投稿
- Online Adaptation of Terrain-Aware Dynamics for Planning in Unstructured Environments
- ‘Don’t Do That!’: Guiding Embodied Systems through Large Language Model-based Constraint Generation
- SGN-CIRL: Scene Graph-based Navigation with Curriculum, Imitation, and Reinforcement Learning
- Olfactory Inertial Odometry: Sensor Calibration and Drift Compensation
- Chronoamperometry with Room-Temperature Ionic Liquids: Sub-Second Inference Techniques
-
最近のコメント
表示できるコメントはありません。 cs.AI (39257) cs.CL (29715) cs.CV (44646) cs.HC (2989) cs.LG (44171) cs.RO (23444) cs.SY (3577) eess.IV (5131) eess.SY (3569) stat.ML (5743)
「cond-mat.dis-nn」カテゴリーアーカイブ
Wilsonian Renormalization of Neural Network Gaussian Processes
要約 関連する情報と無関係な情報を分離することは、モデリングプロセスまたは科学的 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, hep-th, stat.ML
Wilsonian Renormalization of Neural Network Gaussian Processes はコメントを受け付けていません
Neuronal correlations shape the scaling behavior of memory capacity and nonlinear computational capability of recurrent neural networks
要約 貯水池コンピューティングは、機械学習から生物学的システムに至るまでのアプリ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, q-bio.NC
Neuronal correlations shape the scaling behavior of memory capacity and nonlinear computational capability of recurrent neural networks はコメントを受け付けていません
Analytic theory of dropout regularization
要約 ドロップアウトは、過剰適合を緩和するために人工ニューラルネットワークのトレ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG, stat.ML
Analytic theory of dropout regularization はコメントを受け付けていません
Phase Diagram from Nonlinear Interaction between Superconducting Order and Density: Toward Data-Based Holographic Superconductor
要約 ホログラフィック超伝導体のモデリングにおける逆の問題に対処します。 実験に … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.supr-con, cs.AI, hep-th
Phase Diagram from Nonlinear Interaction between Superconducting Order and Density: Toward Data-Based Holographic Superconductor はコメントを受け付けていません
When resampling/reweighting improves feature learning in imbalanced classification?: A toy-model study
要約 バイナリ分類の玩具モデルは、クラスの不均衡の存在下での機能学習パフォーマン … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.IT, cs.LG, math.IT, stat.ML
When resampling/reweighting improves feature learning in imbalanced classification?: A toy-model study はコメントを受け付けていません
Spin glass model of in-context learning
要約 大規模な言語モデルは、驚くべきコンテキストの学習能力を示しています。プロン … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL
Spin glass model of in-context learning はコメントを受け付けていません
Learning Coarse-Grained Dynamics on Graph
要約 グラフニューラルネットワーク(GNN)非マルコビアンモデリングフレームワー … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, cs.NA, math.NA
Learning Coarse-Grained Dynamics on Graph はコメントを受け付けていません
How Feature Learning Can Improve Neural Scaling Laws
要約 我々は、カーネル限界を超えたニューラル・スケーリング則の可解モデルを開発す … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
How Feature Learning Can Improve Neural Scaling Laws はコメントを受け付けていません
Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks
要約 2つのクラスの連続非凸重量モデルを使用して、ランダムパターンラベル関連を保 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, math.PR
Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks はコメントを受け付けていません
Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation
要約 幅$ k $と入力寸法$ d $が大きく比例している完全に訓練された2層ニ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.IT, cs.LG, math.IT, stat.ML
Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation はコメントを受け付けていません