cond-mat.dis-nn」カテゴリーアーカイブ

When resampling/reweighting improves feature learning in imbalanced classification?: A toy-model study

要約 バイナリ分類の玩具モデルは、クラスの不均衡の存在下での機能学習パフォーマン … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.IT, cs.LG, math.IT, stat.ML | コメントする

Spin glass model of in-context learning

要約 大規模な言語モデルは、驚くべきコンテキストの学習能力を示しています。プロン … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL | コメントする

Learning Coarse-Grained Dynamics on Graph

要約 グラフニューラルネットワーク(GNN)非マルコビアンモデリングフレームワー … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, cs.NA, math.NA | Learning Coarse-Grained Dynamics on Graph はコメントを受け付けていません

How Feature Learning Can Improve Neural Scaling Laws

要約 我々は、カーネル限界を超えたニューラル・スケーリング則の可解モデルを開発す … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | How Feature Learning Can Improve Neural Scaling Laws はコメントを受け付けていません

Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks

要約 2つのクラスの連続非凸重量モデルを使用して、ランダムパターンラベル関連を保 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, math.PR | Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks はコメントを受け付けていません

Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation

要約 幅$ k $と入力寸法$ d $が大きく比例している完全に訓練された2層ニ … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.IT, cs.LG, math.IT, stat.ML | Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation はコメントを受け付けていません

Exploring the Energy Landscape of RBMs: Reciprocal Space Insights into Bosons, Hierarchical Learning and Symmetry Breaking

要約 深い生成モデルは、複雑な分布から学習してサンプリングする能力により、遍在し … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Exploring the Energy Landscape of RBMs: Reciprocal Space Insights into Bosons, Hierarchical Learning and Symmetry Breaking はコメントを受け付けていません

Communities in the Kuramoto Model: Dynamics and Detection via Path Signatures

要約 多変量動的プロセスの動作は、システムのコンポーネントを関連付ける基礎となる … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, nlin.AO, q-bio.NC, q-bio.QM, stat.ML | Communities in the Kuramoto Model: Dynamics and Detection via Path Signatures はコメントを受け付けていません

Natural Quantization of Neural Networks

要約 ニューロンがキュービットに対応し、活性化関数が量子ゲートと測定を介して実装 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, quant-ph | Natural Quantization of Neural Networks はコメントを受け付けていません

On the phase diagram of extensive-rank symmetric matrix denoising beyond rotational invariance

要約 マトリックスの脱化は、信号処理と機械学習の中心です。 推測するマトリックス … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.IT, cs.LG, math.IT | On the phase diagram of extensive-rank symmetric matrix denoising beyond rotational invariance はコメントを受け付けていません