cond-mat.dis-nn」カテゴリーアーカイブ

Modelling Structured Data Learning with Restricted Boltzmann Machines in the Teacher-Student Setting

要約 制限付きボルツマン マシン (RBM) は、豊富な基礎構造を持つデータを学 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Modelling Structured Data Learning with Restricted Boltzmann Machines in the Teacher-Student Setting はコメントを受け付けていません

Probing the Latent Hierarchical Structure of Data via Diffusion Models

要約 高次元データを学習可能にするには、高度に構造化する必要があります。 データ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Probing the Latent Hierarchical Structure of Data via Diffusion Models はコメントを受け付けていません

Rapid and Automated Alloy Design with Graph Neural Network-Powered LLM-Driven Multi-Agent Systems

要約 マルチエージェント AI モデルは、マルチモーダル データと原子シミュレー … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.mes-hall, cond-mat.mtrl-sci, cs.AI, cs.MA | Rapid and Automated Alloy Design with Graph Neural Network-Powered LLM-Driven Multi-Agent Systems はコメントを受け付けていません

An exactly solvable model for emergence and scaling laws in the multitask sparse parity problem

要約 深層学習モデルは、トレーニング時間、トレーニング データ、またはモデルのサ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | An exactly solvable model for emergence and scaling laws in the multitask sparse parity problem はコメントを受け付けていません

Benefiting from Quantum? A Comparative Study of Q-Seg, Quantum-Inspired Techniques, and U-Net for Crack Segmentation

要約 古典的なアプリケーションと現実世界のアプリケーションを強化するための量子ハ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.CV, eess.IV | Benefiting from Quantum? A Comparative Study of Q-Seg, Quantum-Inspired Techniques, and U-Net for Crack Segmentation はコメントを受け付けていません

Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators

要約 機械学習力場 (MLFF) は、分子動力学 (MD) シミュレーションの非 … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph | Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators はコメントを受け付けていません

Statistical signatures of abstraction in deep neural networks

要約 私たちは、ベンチマーク データセットでトレーニングされた Deep Bel … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, physics.data-an, stat.ML | Statistical signatures of abstraction in deep neural networks はコメントを受け付けていません

How Feature Learning Can Improve Neural Scaling Laws

要約 私たちは、カーネルの限界を超えたニューラル スケーリング則の解決可能なモデ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | How Feature Learning Can Improve Neural Scaling Laws はコメントを受け付けていません

Optimal Protocols for Continual Learning via Statistical Physics and Control Theory

要約 人工ニューラル ネットワークは、複数のタスクを順番に学習するときに、新しい … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG | Optimal Protocols for Continual Learning via Statistical Physics and Control Theory はコメントを受け付けていません

Self-attention as an attractor network: transient memories without backpropagation

要約 トランスフォーマーは、最新のニューラル ネットワークの最も成功したアーキテ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Self-attention as an attractor network: transient memories without backpropagation はコメントを受け付けていません