hep-th」カテゴリーアーカイブ

GUD: Generation with Unified Diffusion

要約 拡散生成モデルは、データサンプルに徐々にノイズを加えるプロセスを反転させる … 続きを読む

カテゴリー: cs.LG, hep-th, stat.ML | コメントする

Grokking Modular Polynomials

要約 ニューラル ネットワークは、モジュラー算術タスクのサブセットを容易に学習し … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, hep-th, math.NT, stat.ML | Grokking Modular Polynomials はコメントを受け付けていません

Learning to grok: Emergence of in-context learning and skill composition in modular arithmetic tasks

要約 大規模な言語モデルは、トレーニング セットには存在しなかったタスクを解決で … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, hep-th, stat.ML | Learning to grok: Emergence of in-context learning and skill composition in modular arithmetic tasks はコメントを受け付けていません

Deep Learning Calabi-Yau four folds with hybrid and recurrent neural network architectures

要約 この研究では、ハイブリッド畳み込み再帰型ニューラル ネットワーク アーキテ … 続きを読む

カテゴリー: cs.LG, hep-th, math.AG | Deep Learning Calabi-Yau four folds with hybrid and recurrent neural network architectures はコメントを受け付けていません

Deep learning lattice gauge theories

要約 モンテカルロ法は、格子ゲージ理論の強結合挙動に対する深い洞察をもたらし、ハ … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.str-el, cs.LG, hep-lat, hep-th | Deep learning lattice gauge theories はコメントを受け付けていません

The Inverse of Exact Renormalization Group Flows as Statistical Inference

要約 私たちは、関数的な対流拡散方程式によって記述される最適輸送のインスタンス化 … 続きを読む

カテゴリー: cs.AI, hep-th | The Inverse of Exact Renormalization Group Flows as Statistical Inference はコメントを受け付けていません

Neural network representation of quantum systems

要約 ガウス過程に近いランダムワイドニューラルネットワークは、ガウス固定点の周り … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG, hep-th, quant-ph | Neural network representation of quantum systems はコメントを受け付けていません

Neural Networks Asymptotic Behaviours for the Resolution of Inverse Problems

要約 この論文では、場の量子理論の応用だけでなく、より一般的な状況にも関連するデ … 続きを読む

カテゴリー: cs.AI, hep-lat, hep-th, physics.comp-ph | Neural Networks Asymptotic Behaviours for the Resolution of Inverse Problems はコメントを受け付けていません

Neural Networks asymptotic behaviours suitable for the resolution of inverse problems

要約 この論文では、デコンボリューション逆問題に対するニューラル ネットワーク … 続きを読む

カテゴリー: cs.AI, hep-lat, hep-th, physics.comp-ph | Neural Networks asymptotic behaviours suitable for the resolution of inverse problems はコメントを受け付けていません

Weak Correlations as the Underlying Principle for Linearization of Gradient-Based Learning Systems

要約 ワイド ニューラル ネットワークなどの深層学習モデルは、相互作用する多数の … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG, hep-th, math.PR, stat.ML | Weak Correlations as the Underlying Principle for Linearization of Gradient-Based Learning Systems はコメントを受け付けていません