月別アーカイブ: 2025年2月

UGPhysics: A Comprehensive Benchmark for Undergraduate Physics Reasoning with Large Language Models

要約 大規模な言語モデル(LLM)は、特に数学で複雑な推論タスクを解決する際に顕 … 続きを読む

カテゴリー: cs.AI, cs.CL | UGPhysics: A Comprehensive Benchmark for Undergraduate Physics Reasoning with Large Language Models はコメントを受け付けていません

Critique Fine-Tuning: Learning to Critique is More Effective than Learning to Imitate

要約 監視された微調整(SFT)は、一般的に言語モデルをトレーニングして、指定さ … 続きを読む

カテゴリー: cs.CL | Critique Fine-Tuning: Learning to Critique is More Effective than Learning to Imitate はコメントを受け付けていません

Structured Token Retention and Computational Memory Paths in Large Language Models

要約 メモリ保持メカニズムは、拡張シーケンスを処理するために設計された計算アーキ … 続きを読む

カテゴリー: cs.CL | Structured Token Retention and Computational Memory Paths in Large Language Models はコメントを受け付けていません

Policies and Evaluation for Online Meeting Summarization

要約 ますます多くの会議がデジタルドメインに移行することで、会議の要約は最近、学 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Policies and Evaluation for Online Meeting Summarization はコメントを受け付けていません

Can Large Language Models Predict the Outcome of Judicial Decisions?

要約 大規模な言語モデル(LLM)は、多様なドメインにわたって自然言語処理(NL … 続きを読む

カテゴリー: cs.AI, cs.CL | Can Large Language Models Predict the Outcome of Judicial Decisions? はコメントを受け付けていません

Code-Optimise: Self-Generated Preference Data for Correctness and Efficiency

要約 コード言語モデルは、通常、ランタイムを考慮せずに、正確なソリューションを生 … 続きを読む

カテゴリー: cs.CL | Code-Optimise: Self-Generated Preference Data for Correctness and Efficiency はコメントを受け付けていません

SimulPL: Aligning Human Preferences in Simultaneous Machine Translation

要約 同時機械翻訳(SIMT)は、ストリーミングソース入力を受信しながら翻訳を生 … 続きを読む

カテゴリー: cs.AI, cs.CL | SimulPL: Aligning Human Preferences in Simultaneous Machine Translation はコメントを受け付けていません

Teaching Large Language Models Number-Focused Headline Generation With Key Element Rationales

要約 数に焦点を当てた見出しの生成は、高いテキストの品質と正確な数値精度の両方を … 続きを読む

カテゴリー: cs.CL, cs.LG | Teaching Large Language Models Number-Focused Headline Generation With Key Element Rationales はコメントを受け付けていません

Compressing Large Language Models with Automated Sub-Network Search

要約 大規模な言語モデル(LLMS)は、例外的な推論能力を示しており、コモンセン … 続きを読む

カテゴリー: cs.CL | Compressing Large Language Models with Automated Sub-Network Search はコメントを受け付けていません

Scalable In-Context Learning on Tabular Data via Retrieval-Augmented Large Language Models

要約 最近の研究では、大規模な言語モデル(LLM)は、表形式データのトレーニング … 続きを読む

カテゴリー: cs.AI, cs.CL | Scalable In-Context Learning on Tabular Data via Retrieval-Augmented Large Language Models はコメントを受け付けていません