cond-mat.dis-nn」カテゴリーアーカイブ

Rapid and Automated Alloy Design with Graph Neural Network-Powered LLM-Driven Multi-Agent Systems

要約 マルチエージェント AI モデルは、マルチモーダル データと原子シミュレー … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.mes-hall, cond-mat.mtrl-sci, cs.AI, cs.MA | Rapid and Automated Alloy Design with Graph Neural Network-Powered LLM-Driven Multi-Agent Systems はコメントを受け付けていません

An exactly solvable model for emergence and scaling laws in the multitask sparse parity problem

要約 深層学習モデルは、トレーニング時間、トレーニング データ、またはモデルのサ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | An exactly solvable model for emergence and scaling laws in the multitask sparse parity problem はコメントを受け付けていません

Benefiting from Quantum? A Comparative Study of Q-Seg, Quantum-Inspired Techniques, and U-Net for Crack Segmentation

要約 古典的なアプリケーションと現実世界のアプリケーションを強化するための量子ハ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.CV, eess.IV | Benefiting from Quantum? A Comparative Study of Q-Seg, Quantum-Inspired Techniques, and U-Net for Crack Segmentation はコメントを受け付けていません

Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators

要約 機械学習力場 (MLFF) は、分子動力学 (MD) シミュレーションの非 … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph | Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators はコメントを受け付けていません

Statistical signatures of abstraction in deep neural networks

要約 私たちは、ベンチマーク データセットでトレーニングされた Deep Bel … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, physics.data-an, stat.ML | Statistical signatures of abstraction in deep neural networks はコメントを受け付けていません

How Feature Learning Can Improve Neural Scaling Laws

要約 私たちは、カーネルの限界を超えたニューラル スケーリング則の解決可能なモデ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | How Feature Learning Can Improve Neural Scaling Laws はコメントを受け付けていません

Optimal Protocols for Continual Learning via Statistical Physics and Control Theory

要約 人工ニューラル ネットワークは、複数のタスクを順番に学習するときに、新しい … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG | Optimal Protocols for Continual Learning via Statistical Physics and Control Theory はコメントを受け付けていません

Self-attention as an attractor network: transient memories without backpropagation

要約 トランスフォーマーは、最新のニューラル ネットワークの最も成功したアーキテ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Self-attention as an attractor network: transient memories without backpropagation はコメントを受け付けていません

Fast Analysis of the OpenAI O1-Preview Model in Solving Random K-SAT Problem: Does the LLM Solve the Problem Itself or Call an External SAT Solver?

要約 この原稿では、$\alpha=M/N$ の関数として K$\in {2,3 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI, cs.CL | Fast Analysis of the OpenAI O1-Preview Model in Solving Random K-SAT Problem: Does the LLM Solve the Problem Itself or Call an External SAT Solver? はコメントを受け付けていません

Exploring Loss Landscapes through the Lens of Spin Glass Theory

要約 過去 10 年間における深層学習の大幅な進歩により、数多くの画期的なアプリ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI | Exploring Loss Landscapes through the Lens of Spin Glass Theory はコメントを受け付けていません