-
最近の投稿
- RT-cache: Efficient Robot Trajectory Retrieval System
- Reach-Avoid-Stabilize Using Admissible Control Sets
- Solving Reach- and Stabilize-Avoid Problems Using Discounted Reachability
- A Novel 6-axis Force/Torque Sensor Using Inductance Sensors
- Deployable and Generalizable Motion Prediction: Taxonomy, Open Challenges and Future Directions
-
最近のコメント
表示できるコメントはありません。 cs.AI (38110) cs.CL (28797) cs.CV (43686) cs.HC (2911) cs.LG (43032) cs.RO (22672) cs.SY (3480) eess.IV (5065) eess.SY (3472) stat.ML (5604)
「cond-mat.dis-nn」カテゴリーアーカイブ
Wilsonian Renormalization of Neural Network Gaussian Processes
要約 関連する情報と無関係な情報を分離することは、モデリングプロセスまたは科学的 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, hep-th, stat.ML
コメントする
Neuronal correlations shape the scaling behavior of memory capacity and nonlinear computational capability of recurrent neural networks
要約 貯水池コンピューティングは、機械学習から生物学的システムに至るまでのアプリ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, q-bio.NC
コメントする
Analytic theory of dropout regularization
要約 ドロップアウトは、過剰適合を緩和するために人工ニューラルネットワークのトレ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG, stat.ML
コメントする
Phase Diagram from Nonlinear Interaction between Superconducting Order and Density: Toward Data-Based Holographic Superconductor
要約 ホログラフィック超伝導体のモデリングにおける逆の問題に対処します。 実験に … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.supr-con, cs.AI, hep-th
コメントする
When resampling/reweighting improves feature learning in imbalanced classification?: A toy-model study
要約 バイナリ分類の玩具モデルは、クラスの不均衡の存在下での機能学習パフォーマン … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.IT, cs.LG, math.IT, stat.ML
When resampling/reweighting improves feature learning in imbalanced classification?: A toy-model study はコメントを受け付けていません
Spin glass model of in-context learning
要約 大規模な言語モデルは、驚くべきコンテキストの学習能力を示しています。プロン … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL
Spin glass model of in-context learning はコメントを受け付けていません
Learning Coarse-Grained Dynamics on Graph
要約 グラフニューラルネットワーク(GNN)非マルコビアンモデリングフレームワー … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, cs.NA, math.NA
Learning Coarse-Grained Dynamics on Graph はコメントを受け付けていません
How Feature Learning Can Improve Neural Scaling Laws
要約 我々は、カーネル限界を超えたニューラル・スケーリング則の可解モデルを開発す … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
How Feature Learning Can Improve Neural Scaling Laws はコメントを受け付けていません
Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks
要約 2つのクラスの連続非凸重量モデルを使用して、ランダムパターンラベル関連を保 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, math.PR
Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks はコメントを受け付けていません
Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation
要約 幅$ k $と入力寸法$ d $が大きく比例している完全に訓練された2層ニ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.IT, cs.LG, math.IT, stat.ML
Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation はコメントを受け付けていません