cond-mat.dis-nn」カテゴリーアーカイブ

Inferring High-Order Couplings with Neural Networks

要約 統計力学の逆イジング/ポッツ問題に根ざした最大エントロピー法は、生物情報学 … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG | Inferring High-Order Couplings with Neural Networks はコメントを受け付けていません

Quantum-inspired Embeddings Projection and Similarity Metrics for Representation Learning

要約 過去 10 年間にわたり、大量のデータから抽出された複雑な情報を高密度のベ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.CL, quant-ph | Quantum-inspired Embeddings Projection and Similarity Metrics for Representation Learning はコメントを受け付けていません

A precise asymptotic analysis of learning diffusion models: theory and insights

要約 この原稿では、基礎となる低次元多様体構造を備えた高次元ターゲット密度で、オ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | A precise asymptotic analysis of learning diffusion models: theory and insights はコメントを受け付けていません

Parametric Matrix Models

要約 パラメトリック行列モデルと呼ばれる機械学習アルゴリズムの一般的なクラスを紹 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, nucl-th, physics.comp-ph, quant-ph | Parametric Matrix Models はコメントを受け付けていません

Investigating layer-selective transfer learning of QAOA parameters for Max-Cut problem

要約 量子近似最適化アルゴリズム (QAOA) は、ノイズの多い中間スケール量子 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, quant-ph | Investigating layer-selective transfer learning of QAOA parameters for Max-Cut problem はコメントを受け付けていません

Sparse chaos in cortical circuits

要約 脳内の情報の流れの通貨である神経インパルスは、神経膜電位ダイナミクスの不安 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, nlin.CD, q-bio.NC | Sparse chaos in cortical circuits はコメントを受け付けていません

Deep ReLU networks — injectivity capacity upper bounds

要約 私たちは、ディープ ReLU フィードフォワード ニューラル ネットワーク … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.IT, cs.LG, math.IT, stat.ML | Deep ReLU networks — injectivity capacity upper bounds はコメントを受け付けていません

Risk and cross validation in ridge regression with correlated samples

要約 近年、高次元リッジ回帰の理解が大幅に進歩しましたが、既存の理論ではトレーニ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Risk and cross validation in ridge regression with correlated samples はコメントを受け付けていません

Differential learning kinetics govern the transition from memorization to generalization during in-context learning

要約 トランスフォーマーは、インコンテキスト学習 (ICL)、つまり追加の重み更 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG, cs.NE, q-bio.NC | Differential learning kinetics govern the transition from memorization to generalization during in-context learning はコメントを受け付けていません

How transformers learn structured data: insights from hierarchical filtering

要約 学習プロセスと変換器に組み込まれた計算を理解することが、解釈可能な AI … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, cs.LG | How transformers learn structured data: insights from hierarchical filtering はコメントを受け付けていません