cs.LG」カテゴリーアーカイブ

Control, Transport and Sampling: Towards Better Loss Design

要約 拡散ベースのサンプリング、最適輸送、およびシュオーディンガー橋問題への共有 … 続きを読む

カテゴリー: cs.LG, stat.CO, stat.ML | Control, Transport and Sampling: Towards Better Loss Design はコメントを受け付けていません

Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators

要約 機械学習力場 (MLFF) は、分子動力学 (MD) シミュレーションの非 … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph | Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators はコメントを受け付けていません

Features are fate: a theory of transfer learning in high-dimensional regression

要約 大規模な事前トレーニング済みニューラル ネットワークの出現により、そのよう … 続きを読む

カテゴリー: cs.LG, stat.ML | Features are fate: a theory of transfer learning in high-dimensional regression はコメントを受け付けていません

Adam Exploits $\ell_\infty$-geometry of Loss Landscape via Coordinate-wise Adaptivity

要約 Adam は、言語モデルをトレーニングする際に SGD よりも優れたパフォ … 続きを読む

カテゴリー: cs.LG | Adam Exploits $\ell_\infty$-geometry of Loss Landscape via Coordinate-wise Adaptivity はコメントを受け付けていません

Efficient Dictionary Learning with Switch Sparse Autoencoders

要約 スパース オートエンコーダ (SAE) は、ニューラル ネットワークの活性 … 続きを読む

カテゴリー: cs.LG | Efficient Dictionary Learning with Switch Sparse Autoencoders はコメントを受け付けていません

Private Language Models via Truncated Laplacian Mechanism

要約 NLP タスクの深層学習モデルは、さまざまな種類のプライバシー攻撃を受けや … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Private Language Models via Truncated Laplacian Mechanism はコメントを受け付けていません

VerifierQ: Enhancing LLM Test Time Compute with Q-Learning-based Verifiers

要約 特に検証モデルの使用によるテスト時間の計算における最近の進歩により、大規模 … 続きを読む

カテゴリー: cs.CL, cs.LG | VerifierQ: Enhancing LLM Test Time Compute with Q-Learning-based Verifiers はコメントを受け付けていません

How Powerful are Decoder-Only Transformer Neural Models?

要約 この記事では、現代の大規模言語モデル (LLM) を支える一般的なトランス … 続きを読む

カテゴリー: cs.CL, cs.LG | How Powerful are Decoder-Only Transformer Neural Models? はコメントを受け付けていません

Think Beyond Size: Dynamic Prompting for More Effective Reasoning

要約 この文書では、大規模言語モデル (LLM) の推論機能の向上を目的とした新 … 続きを読む

カテゴリー: cs.CL, cs.LG | Think Beyond Size: Dynamic Prompting for More Effective Reasoning はコメントを受け付けていません

Rewarding Progress: Scaling Automated Process Verifiers for LLM Reasoning

要約 大規模な言語モデルで推論を改善するための有望なアプローチは、プロセス報酬モ … 続きを読む

カテゴリー: cs.CL, cs.LG | Rewarding Progress: Scaling Automated Process Verifiers for LLM Reasoning はコメントを受け付けていません