-
最近の投稿
- SOUS VIDE: Cooking Visual Drone Navigation Policies in a Gaussian Splatting Vacuum
- Clarke Transform and Encoder-Decoder Architecture for Arbitrary Joints Locations in Displacement-Actuated Continuum Robots
- Using Clarke Transform to Create a Framework on the Manifold: From Sampling via Trajectory Generation to Control
- Safe Dynamic Motion Generation in Configuration Space Using Differentiable Distance Fields
- BODex: Scalable and Efficient Robotic Dexterous Grasp Synthesis Using Bilevel Optimization
-
最近のコメント
表示できるコメントはありません。 cs.AI (31383) cs.CL (23735) cs.CR (2434) cs.CV (37739) cs.LG (36254) cs.RO (18349) cs.SY (2813) eess.IV (4535) eess.SY (2807) stat.ML (4810)
「cond-mat.dis-nn」カテゴリーアーカイブ
Rapid and Automated Alloy Design with Graph Neural Network-Powered LLM-Driven Multi-Agent Systems
要約 マルチエージェント AI モデルは、マルチモーダル データと原子シミュレー … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.mes-hall, cond-mat.mtrl-sci, cs.AI, cs.MA
Rapid and Automated Alloy Design with Graph Neural Network-Powered LLM-Driven Multi-Agent Systems はコメントを受け付けていません
An exactly solvable model for emergence and scaling laws in the multitask sparse parity problem
要約 深層学習モデルは、トレーニング時間、トレーニング データ、またはモデルのサ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
An exactly solvable model for emergence and scaling laws in the multitask sparse parity problem はコメントを受け付けていません
Benefiting from Quantum? A Comparative Study of Q-Seg, Quantum-Inspired Techniques, and U-Net for Crack Segmentation
要約 古典的なアプリケーションと現実世界のアプリケーションを強化するための量子ハ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.CV, eess.IV
Benefiting from Quantum? A Comparative Study of Q-Seg, Quantum-Inspired Techniques, and U-Net for Crack Segmentation はコメントを受け付けていません
Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators
要約 機械学習力場 (MLFF) は、分子動力学 (MD) シミュレーションの非 … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph
Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators はコメントを受け付けていません
Statistical signatures of abstraction in deep neural networks
要約 私たちは、ベンチマーク データセットでトレーニングされた Deep Bel … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, physics.data-an, stat.ML
Statistical signatures of abstraction in deep neural networks はコメントを受け付けていません
How Feature Learning Can Improve Neural Scaling Laws
要約 私たちは、カーネルの限界を超えたニューラル スケーリング則の解決可能なモデ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
How Feature Learning Can Improve Neural Scaling Laws はコメントを受け付けていません
Optimal Protocols for Continual Learning via Statistical Physics and Control Theory
要約 人工ニューラル ネットワークは、複数のタスクを順番に学習するときに、新しい … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG
Optimal Protocols for Continual Learning via Statistical Physics and Control Theory はコメントを受け付けていません
Self-attention as an attractor network: transient memories without backpropagation
要約 トランスフォーマーは、最新のニューラル ネットワークの最も成功したアーキテ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
Self-attention as an attractor network: transient memories without backpropagation はコメントを受け付けていません
Fast Analysis of the OpenAI O1-Preview Model in Solving Random K-SAT Problem: Does the LLM Solve the Problem Itself or Call an External SAT Solver?
要約 この原稿では、$\alpha=M/N$ の関数として K$\in {2,3 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.AI, cs.CL
Fast Analysis of the OpenAI O1-Preview Model in Solving Random K-SAT Problem: Does the LLM Solve the Problem Itself or Call an External SAT Solver? はコメントを受け付けていません
Exploring Loss Landscapes through the Lens of Spin Glass Theory
要約 過去 10 年間における深層学習の大幅な進歩により、数多くの画期的なアプリ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.AI
Exploring Loss Landscapes through the Lens of Spin Glass Theory はコメントを受け付けていません