cond-mat.dis-nn」カテゴリーアーカイブ

Wilsonian Renormalization of Neural Network Gaussian Processes

要約 関連する情報と無関係な情報を分離することは、モデリングプロセスまたは科学的 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, hep-th, stat.ML | コメントする

Neuronal correlations shape the scaling behavior of memory capacity and nonlinear computational capability of recurrent neural networks

要約 貯水池コンピューティングは、機械学習から生物学的システムに至るまでのアプリ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, q-bio.NC | コメントする

Analytic theory of dropout regularization

要約 ドロップアウトは、過剰適合を緩和するために人工ニューラルネットワークのトレ … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG, stat.ML | コメントする

Phase Diagram from Nonlinear Interaction between Superconducting Order and Density: Toward Data-Based Holographic Superconductor

要約 ホログラフィック超伝導体のモデリングにおける逆の問題に対処します。 実験に … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.supr-con, cs.AI, hep-th | コメントする

When resampling/reweighting improves feature learning in imbalanced classification?: A toy-model study

要約 バイナリ分類の玩具モデルは、クラスの不均衡の存在下での機能学習パフォーマン … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.IT, cs.LG, math.IT, stat.ML | When resampling/reweighting improves feature learning in imbalanced classification?: A toy-model study はコメントを受け付けていません

Spin glass model of in-context learning

要約 大規模な言語モデルは、驚くべきコンテキストの学習能力を示しています。プロン … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL | Spin glass model of in-context learning はコメントを受け付けていません

Learning Coarse-Grained Dynamics on Graph

要約 グラフニューラルネットワーク(GNN)非マルコビアンモデリングフレームワー … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, cs.NA, math.NA | Learning Coarse-Grained Dynamics on Graph はコメントを受け付けていません

How Feature Learning Can Improve Neural Scaling Laws

要約 我々は、カーネル限界を超えたニューラル・スケーリング則の可解モデルを開発す … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | How Feature Learning Can Improve Neural Scaling Laws はコメントを受け付けていません

Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks

要約 2つのクラスの連続非凸重量モデルを使用して、ランダムパターンラベル関連を保 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, math.PR | Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks はコメントを受け付けていません

Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation

要約 幅$ k $と入力寸法$ d $が大きく比例している完全に訓練された2層ニ … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.IT, cs.LG, math.IT, stat.ML | Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation はコメントを受け付けていません