cond-mat.dis-nn」カテゴリーアーカイブ

Persistent Homology for Structural Characterization in Disordered Systems

要約 我々は、無秩序なシステムにおけるローカル構造とグローバル構造の両方を特徴付 … 続きを読む

カテゴリー: 55N31, 62R40, cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, I.3.5, math-ph, math.AT, math.MP | Persistent Homology for Structural Characterization in Disordered Systems はコメントを受け付けていません

Spin glass model of in-context learning

要約 大規模な言語モデルは、驚くべきコンテキスト内学習能力を示します。これは、昔 … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL | Spin glass model of in-context learning はコメントを受け付けていません

Score-based generative diffusion with ‘active’ correlated noise sources

要約 拡散モデルは、データセットの基礎となる分布を近似し、近似された分布からサン … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Score-based generative diffusion with ‘active’ correlated noise sources はコメントを受け付けていません

Learning the rules of peptide self-assembly through data mining with large language models

要約 ペプチドは遍在する重要な生物学的に由来する分子であり、自己集合して幅広い構 … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.mes-hall, cond-mat.soft, cs.AI, cs.CL | Learning the rules of peptide self-assembly through data mining with large language models はコメントを受け付けていません

Dimension-free deterministic equivalents and scaling laws for random feature regression

要約 この研究では、ランダム特徴リッジ回帰 (RFRR) の一般化パフォーマンス … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Dimension-free deterministic equivalents and scaling laws for random feature regression はコメントを受け付けていません

Analysis of Bootstrap and Subsampling in High-dimensional Regularized Regression

要約 我々は、サブサンプリング、ブートストラップ、ジャックナイフなど、統計モデル … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Analysis of Bootstrap and Subsampling in High-dimensional Regularized Regression はコメントを受け付けていません

Dimension-free deterministic equivalents for random feature regression

要約 本研究では、ランダム特徴リッジ回帰(RRRR)の汎化性能を調査する。我々の … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Dimension-free deterministic equivalents for random feature regression はコメントを受け付けていません

Towards a theory of how the structure of language is acquired by deep neural networks

要約 ネクストトークン予測によって言語の構造を学習するにはどれくらいのデータが必 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.CL, cs.LG | Towards a theory of how the structure of language is acquired by deep neural networks はコメントを受け付けていません

On learning higher-order cumulants in diffusion models

要約 拡散モデルがガウス相関を超える相関をどのように学習するかを分析するために、 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, hep-lat | On learning higher-order cumulants in diffusion models はコメントを受け付けていません

The Persian Rug: solving toy models of superposition using large-scale symmetries

要約 大きな入力次元の制限内で最小の非線形スパース データ オートエンコーダによ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG | The Persian Rug: solving toy models of superposition using large-scale symmetries はコメントを受け付けていません