cs.CL」カテゴリーアーカイブ

WILDCHAT-50M: A Deep Dive Into the Role of Synthetic Data in Post-Training

要約 DPOから蒸留まで、訓練後の言語モデル(LLM)は、行動を改良し、新しいス … 続きを読む

カテゴリー: cs.CL, cs.LG | WILDCHAT-50M: A Deep Dive Into the Role of Synthetic Data in Post-Training はコメントを受け付けていません

Streaming DiLoCo with overlapping communication: Towards a Distributed Free Lunch

要約 大規模な言語モデル(LLM)のトレーニングは、通常、トレーニング時間を短縮 … 続きを読む

カテゴリー: cs.CL | Streaming DiLoCo with overlapping communication: Towards a Distributed Free Lunch はコメントを受け付けていません

GroUSE: A Benchmark to Evaluate Evaluators in Grounded Question Answering

要約 検索された生成(RAG)は、プライベートおよび最新の知識ベースとともに、大 … 続きを読む

カテゴリー: cs.CL, I.2.7 | GroUSE: A Benchmark to Evaluate Evaluators in Grounded Question Answering はコメントを受け付けていません

Differentially Private Steering for Large Language Model Alignment

要約 大規模な言語モデル(LLM)を人間の価値観に合わせて、望ましくない行動(幻 … 続きを読む

カテゴリー: cs.CL, cs.LG | Differentially Private Steering for Large Language Model Alignment はコメントを受け付けていません

Verify with Caution: The Pitfalls of Relying on Imperfect Factuality Metrics

要約 大規模な言語モデルの改善により、自然言語生成出力の信頼できる評価者として役 … 続きを読む

カテゴリー: cs.CL, cs.LG | Verify with Caution: The Pitfalls of Relying on Imperfect Factuality Metrics はコメントを受け付けていません

Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs

要約 OpenaiのO1などの大規模な言語モデル(LLM)は、テスト時間の計算を … 続きを読む

カテゴリー: cs.CL | Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs はコメントを受け付けていません

Beyond Browsing: API-Based Web Agents

要約 Webブラウザは、人間の活動の多くが実施されているインターネットのポータル … 続きを読む

カテゴリー: cs.CL, cs.MA | Beyond Browsing: API-Based Web Agents はコメントを受け付けていません

State Stream Transformer (SST) : Emergent Metacognitive Behaviours Through Latent State Persistence

要約 State Stream Transformer(SST)を紹介します。こ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | State Stream Transformer (SST) : Emergent Metacognitive Behaviours Through Latent State Persistence はコメントを受け付けていません

Zeroth-Order Adaptive Neuron Alignment Based Pruning without Re-Training

要約 Network Pruningは、パラメーターのサブセットを削除しながらパ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Zeroth-Order Adaptive Neuron Alignment Based Pruning without Re-Training はコメントを受け付けていません

How Much Can We Forget about Data Contamination?

要約 トレーニングデータへのベンチマークデータの漏れは、大規模な言語モデル(LL … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | How Much Can We Forget about Data Contamination? はコメントを受け付けていません