-
最近の投稿
- A Hierarchical Reinforcement Learning Framework for Multi-UAV Combat Using Leader-Follower Strategy
- A 65 nm Bayesian Neural Network Accelerator with 360 fJ/Sample In-Word GRNG for AI Uncertainty Estimation
- Map Prediction and Generative Entropy for Multi-Agent Exploration
- Polyhedral Collision Detection via Vertex Enumeration
- Safe and Efficient Robot Action Planning in the Presence of Unconcerned Humans
-
最近のコメント
表示できるコメントはありません。 cs.AI (32657) cs.CL (24688) cs.CR (2523) cs.CV (38845) cs.LG (37527) cs.RO (19009) cs.SY (2906) eess.IV (4656) eess.SY (2900) stat.ML (4944)
「cond-mat.dis-nn」カテゴリーアーカイブ
An exactly solvable model for emergence and scaling laws in the multitask sparse parity problem
要約 深層学習モデルは、トレーニング時間、トレーニング データ、またはモデルのサ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
An exactly solvable model for emergence and scaling laws in the multitask sparse parity problem はコメントを受け付けていません
Benefiting from Quantum? A Comparative Study of Q-Seg, Quantum-Inspired Techniques, and U-Net for Crack Segmentation
要約 古典的なアプリケーションと現実世界のアプリケーションを強化するための量子ハ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.CV, eess.IV
Benefiting from Quantum? A Comparative Study of Q-Seg, Quantum-Inspired Techniques, and U-Net for Crack Segmentation はコメントを受け付けていません
Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators
要約 機械学習力場 (MLFF) は、分子動力学 (MD) シミュレーションの非 … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph
Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators はコメントを受け付けていません
Statistical signatures of abstraction in deep neural networks
要約 私たちは、ベンチマーク データセットでトレーニングされた Deep Bel … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, physics.data-an, stat.ML
Statistical signatures of abstraction in deep neural networks はコメントを受け付けていません
How Feature Learning Can Improve Neural Scaling Laws
要約 私たちは、カーネルの限界を超えたニューラル スケーリング則の解決可能なモデ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
How Feature Learning Can Improve Neural Scaling Laws はコメントを受け付けていません
Optimal Protocols for Continual Learning via Statistical Physics and Control Theory
要約 人工ニューラル ネットワークは、複数のタスクを順番に学習するときに、新しい … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG
Optimal Protocols for Continual Learning via Statistical Physics and Control Theory はコメントを受け付けていません
Self-attention as an attractor network: transient memories without backpropagation
要約 トランスフォーマーは、最新のニューラル ネットワークの最も成功したアーキテ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
Self-attention as an attractor network: transient memories without backpropagation はコメントを受け付けていません
Fast Analysis of the OpenAI O1-Preview Model in Solving Random K-SAT Problem: Does the LLM Solve the Problem Itself or Call an External SAT Solver?
要約 この原稿では、$\alpha=M/N$ の関数として K$\in {2,3 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.AI, cs.CL
Fast Analysis of the OpenAI O1-Preview Model in Solving Random K-SAT Problem: Does the LLM Solve the Problem Itself or Call an External SAT Solver? はコメントを受け付けていません
Exploring Loss Landscapes through the Lens of Spin Glass Theory
要約 過去 10 年間における深層学習の大幅な進歩により、数多くの画期的なアプリ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.AI
Exploring Loss Landscapes through the Lens of Spin Glass Theory はコメントを受け付けていません
SciAgents: Automating scientific discovery through multi-agent intelligent graph reasoning
要約 人工知能における重要な課題は、新しい領域を探索し、複雑なパターンを特定し、 … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.AI, cs.CL, cs.LG
SciAgents: Automating scientific discovery through multi-agent intelligent graph reasoning はコメントを受け付けていません