cs.CL」カテゴリーアーカイブ

ProcessBench: Identifying Process Errors in Mathematical Reasoning

要約 言語モデルは数学の問題を解決する際に定期的に間違いを犯すため、推論プロセス … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | ProcessBench: Identifying Process Errors in Mathematical Reasoning はコメントを受け付けていません

Multi-modal brain encoding models for multi-modal stimuli

要約 画像やサイレントビデオを視聴するなどの単峰性刺激に従事している参加者にもか … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, eess.AS, eess.IV, q-bio.NC | Multi-modal brain encoding models for multi-modal stimuli はコメントを受け付けていません

Bemba Speech Translation: Exploring a Low-Resource African Language

要約 このホワイトペーパーでは、スポークン言語翻訳に関する国際会議(IWSLT … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | Bemba Speech Translation: Exploring a Low-Resource African Language はコメントを受け付けていません

Grammars of Formal Uncertainty: When to Trust LLMs in Automated Reasoning Tasks

要約 大規模な言語モデル(LLMS)は、正式な仕様を生成することにより、自動化さ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LO, cs.SE | Grammars of Formal Uncertainty: When to Trust LLMs in Automated Reasoning Tasks はコメントを受け付けていません

MVP: Multi-source Voice Pathology detection

要約 音声障害は、患者の生活の質に大きな影響を与えますが、病的な音声データの希少 … 続きを読む

カテゴリー: cs.CL, eess.AS | MVP: Multi-source Voice Pathology detection はコメントを受け付けていません

‘Alexa, can you forget me?’ Machine Unlearning Benchmark in Spoken Language Understanding

要約 機械学習モデルから特定の情報を効率的に削除するプロセスであるマシンの未学習 … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | ‘Alexa, can you forget me?’ Machine Unlearning Benchmark in Spoken Language Understanding はコメントを受け付けていません

SAEs Are Good for Steering — If You Select the Right Features

要約 スパース自動エンコーダー(SAE)は、モデルの潜在空間の分解を学ぶための監 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | SAEs Are Good for Steering — If You Select the Right Features はコメントを受け付けていません

Incentivizing Reasoning from Weak Supervision

要約 大規模な言語モデル(LLMS)は、推論集約型タスクの印象的なパフォーマンス … 続きを読む

カテゴリー: cs.AI, cs.CL | Incentivizing Reasoning from Weak Supervision はコメントを受け付けていません

Inference-time Alignment in Continuous Space

要約 推論時間に人間のフィードバックで大規模な言語モデルを調整することで、柔軟性 … 続きを読む

カテゴリー: cs.AI, cs.CL | Inference-time Alignment in Continuous Space はコメントを受け付けていません

Revealing the Intrinsic Ethical Vulnerability of Aligned Large Language Models

要約 大規模な言語モデル(LLM)は、人工的な一般情報の基礎的な調査ですが、指導 … 続きを読む

カテゴリー: cs.AI, cs.CL | Revealing the Intrinsic Ethical Vulnerability of Aligned Large Language Models はコメントを受け付けていません