-
最近の投稿
- The Spinning Blimp: Design and Control of a Novel Minimalist Aerial Vehicle Leveraging Rotational Dynamics and Locomotion
- Dur360BEV: A Real-world 360-degree Single Camera Dataset and Benchmark for Bird-Eye View Mapping in Autonomous Driving
- GAGrasp: Geometric Algebra Diffusion for Dexterous Grasping
- DVM-SLAM: Decentralized Visual Monocular Simultaneous Localization and Mapping for Multi-Agent Systems
- Real-time Spatial-temporal Traversability Assessment via Feature-based Sparse Gaussian Process
-
最近のコメント
表示できるコメントはありません。 cs.AI (34738) cs.CL (26263) cs.CR (2664) cs.CV (40572) cs.LG (39741) cs.RO (20348) cs.SY (3091) eess.IV (4818) eess.SY (3085) stat.ML (5229)
「cond-mat.dis-nn」カテゴリーアーカイブ
X-LoRA: Mixture of Low-Rank Adapter Experts, a Flexible Framework for Large Language Models with Applications in Protein Mechanics and Molecular Design
要約 我々は、低ランク適応(LoRA)に基づく深い層ごとのトークンレベルのアプロ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.soft, cs.AI, cs.CL, cs.LG, q-bio.QM
X-LoRA: Mixture of Low-Rank Adapter Experts, a Flexible Framework for Large Language Models with Applications in Protein Mechanics and Molecular Design はコメントを受け付けていません
Robustness of the Random Language Model
要約 ランダム言語モデル (De Giuli 2019) は、人間言語とコンピュ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.CL
Robustness of the Random Language Model はコメントを受け付けていません
Asymptotic generalization error of a single-layer graph convolutional network
要約 グラフ畳み込みネットワークは実用的な有望性を示していますが、サンプル数の関 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
Asymptotic generalization error of a single-layer graph convolutional network はコメントを受け付けていません
The Training Process of Many Deep Networks Explores the Same Low-Dimensional Manifold
要約 私たちは、トレーニング中にディープネットワークの予測の軌跡を分析するための … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
The Training Process of Many Deep Networks Explores the Same Low-Dimensional Manifold はコメントを受け付けていません
Neural network representation of quantum systems
要約 ガウス過程に近いランダムワイドニューラルネットワークは、ガウス固定点の周り … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG, hep-th, quant-ph
Neural network representation of quantum systems はコメントを受け付けていません
Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation
要約 合成ガウス データの確率的勾配降下法 (SGD) の連続限界内で、単層およ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG
Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation はコメントを受け付けていません
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models
要約 NLP における Transformer アーキテクチャの優れたパフォーマ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL
The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models はコメントを受け付けていません
Machine learning reveals features of spinon Fermi surface
要約 強く相互作用する量子ハミルトニアンのシミュレーションが急速に進歩するにつれ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.str-el, cs.LG, quant-ph
Machine learning reveals features of spinon Fermi surface はコメントを受け付けていません
Stability-Aware Training of Neural Network Interatomic Potentials with Differentiable Boltzmann Estimators
要約 ニューラル ネットワーク原子間ポテンシャル (NNIP) は、分子動力学 … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph
Stability-Aware Training of Neural Network Interatomic Potentials with Differentiable Boltzmann Estimators はコメントを受け付けていません
Asymptotics of Learning with Deep Structured (Random) Features
要約 大きなクラスの特徴マップについては、入力次元、隠れ層の幅、トレーニング サ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, math.ST, stat.ML, stat.TH
Asymptotics of Learning with Deep Structured (Random) Features はコメントを受け付けていません