cs.LG」カテゴリーアーカイブ

Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators

要約 機械学習力フィールド(MLFF)は、分子動力学(MD)シミュレーションのた … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph | Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators はコメントを受け付けていません

LLM-Based Design Pattern Detection

要約 なじみのないコードベースでの設計パターンインスタンスの検出インスタンスの検 … 続きを読む

カテゴリー: cs.LG, cs.SE | LLM-Based Design Pattern Detection はコメントを受け付けていません

Allocating Variance to Maximize Expectation

要約 ガウスランダム変数の家族の最高の期待を最大化するための効率的な近似アルゴリ … 続きを読む

カテゴリー: cs.LG, stat.ML | Allocating Variance to Maximize Expectation はコメントを受け付けていません

Diffusion-HMC: Parameter Inference with Diffusion-model-driven Hamiltonian Monte Carlo

要約 拡散生成モデルは、フィールド全体の多様な画像生成および再構築タスクに優れて … 続きを読む

カテゴリー: astro-ph.CO, cs.LG | Diffusion-HMC: Parameter Inference with Diffusion-model-driven Hamiltonian Monte Carlo はコメントを受け付けていません

Mechanism and Emergence of Stacked Attention Heads in Multi-Layer Transformers

要約 この論文では、検索問題を紹介します。これは、入力サイズで対数的に成長する最 … 続きを読む

カテゴリー: cs.CL, cs.LG | Mechanism and Emergence of Stacked Attention Heads in Multi-Layer Transformers はコメントを受け付けていません

Iterative Counterfactual Data Augmentation

要約 反事実データ増強(CDA)は、通常、対立するバイアスを持つ補完的なデータセ … 続きを読む

カテゴリー: cs.CL, cs.IT, cs.LG, math.IT | Iterative Counterfactual Data Augmentation はコメントを受け付けていません

BRIDO: Bringing Democratic Order to Abstractive Summarization

要約 幻覚とは、大規模な言語モデル(LLM)から生成された不正確で、無関係で、一 … 続きを読む

カテゴリー: cs.CL, cs.LG | BRIDO: Bringing Democratic Order to Abstractive Summarization はコメントを受け付けていません

DBR: Divergence-Based Regularization for Debiasing Natural Language Understanding Models

要約 事前に訓練された言語モデル(PLMS)は、さまざまな自然言語処理タスクで印 … 続きを読む

カテゴリー: cs.CL, cs.LG | DBR: Divergence-Based Regularization for Debiasing Natural Language Understanding Models はコメントを受け付けていません

Mind the Gap: Examining the Self-Improvement Capabilities of Large Language Models

要約 自己改善は、トレーニング前、トレーニング後、テスト時間推論の大規模な言語モ … 続きを読む

カテゴリー: cs.CL, cs.LG | Mind the Gap: Examining the Self-Improvement Capabilities of Large Language Models はコメントを受け付けていません

How Does Code Pretraining Affect Language Model Task Performance?

要約 大規模な言語モデルは、自然言語とソースコードなどの非言語データの両方を含む … 続きを読む

カテゴリー: cs.CL, cs.LG | How Does Code Pretraining Affect Language Model Task Performance? はコメントを受け付けていません