cs.CL」カテゴリーアーカイブ

Structured Token Retention and Computational Memory Paths in Large Language Models

要約 メモリ保持メカニズムは、拡張シーケンスを処理するために設計された計算アーキ … 続きを読む

カテゴリー: cs.CL | Structured Token Retention and Computational Memory Paths in Large Language Models はコメントを受け付けていません

Policies and Evaluation for Online Meeting Summarization

要約 ますます多くの会議がデジタルドメインに移行することで、会議の要約は最近、学 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Policies and Evaluation for Online Meeting Summarization はコメントを受け付けていません

Can Large Language Models Predict the Outcome of Judicial Decisions?

要約 大規模な言語モデル(LLM)は、多様なドメインにわたって自然言語処理(NL … 続きを読む

カテゴリー: cs.AI, cs.CL | Can Large Language Models Predict the Outcome of Judicial Decisions? はコメントを受け付けていません

Code-Optimise: Self-Generated Preference Data for Correctness and Efficiency

要約 コード言語モデルは、通常、ランタイムを考慮せずに、正確なソリューションを生 … 続きを読む

カテゴリー: cs.CL | Code-Optimise: Self-Generated Preference Data for Correctness and Efficiency はコメントを受け付けていません

SimulPL: Aligning Human Preferences in Simultaneous Machine Translation

要約 同時機械翻訳(SIMT)は、ストリーミングソース入力を受信しながら翻訳を生 … 続きを読む

カテゴリー: cs.AI, cs.CL | SimulPL: Aligning Human Preferences in Simultaneous Machine Translation はコメントを受け付けていません

Teaching Large Language Models Number-Focused Headline Generation With Key Element Rationales

要約 数に焦点を当てた見出しの生成は、高いテキストの品質と正確な数値精度の両方を … 続きを読む

カテゴリー: cs.CL, cs.LG | Teaching Large Language Models Number-Focused Headline Generation With Key Element Rationales はコメントを受け付けていません

Compressing Large Language Models with Automated Sub-Network Search

要約 大規模な言語モデル(LLMS)は、例外的な推論能力を示しており、コモンセン … 続きを読む

カテゴリー: cs.CL | Compressing Large Language Models with Automated Sub-Network Search はコメントを受け付けていません

Scalable In-Context Learning on Tabular Data via Retrieval-Augmented Large Language Models

要約 最近の研究では、大規模な言語モデル(LLM)は、表形式データのトレーニング … 続きを読む

カテゴリー: cs.AI, cs.CL | Scalable In-Context Learning on Tabular Data via Retrieval-Augmented Large Language Models はコメントを受け付けていません

Token-based Decision Criteria Are Suboptimal in In-context Learning

要約 コンテキスト内学習(ICL)は通常、手動で選択されたラベルトークンの出力確 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Token-based Decision Criteria Are Suboptimal in In-context Learning はコメントを受け付けていません

SuperCorrect: Supervising and Correcting Language Models with Error-Driven Insights

要約 GPT-4、Palm、Llamaなどの大規模な言語モデル(LLM)は、さま … 続きを読む

カテゴリー: cs.CL | SuperCorrect: Supervising and Correcting Language Models with Error-Driven Insights はコメントを受け付けていません