cs.CL」カテゴリーアーカイブ

LongAttn: Selecting Long-context Training Data via Token-level Attention

要約 大規模な言語モデル(LLMS)の開発により、長いコンテキストの処理において … 続きを読む

カテゴリー: cs.CL | LongAttn: Selecting Long-context Training Data via Token-level Attention はコメントを受け付けていません

Similarity-Distance-Magnitude Universal Verification

要約 類似性(つまり、トレーニングに深さマッチを正しく予測する)を追加することに … 続きを読む

カテゴリー: cs.CL, cs.LG | Similarity-Distance-Magnitude Universal Verification はコメントを受け付けていません

Re-evaluating Open-ended Evaluation of Large Language Models

要約 評価は、伝統的に特定のスキルの候補者のランキングに焦点を当ててきました。 … 続きを読む

カテゴリー: cs.CL, cs.GT, cs.LG, stat.ML | Re-evaluating Open-ended Evaluation of Large Language Models はコメントを受け付けていません

Continual Memorization of Factoids in Language Models

要約 新しい知識が急速に蓄積されるにつれて、前提条件の知識を持つ言語モデル(LM … 続きを読む

カテゴリー: cs.CL | Continual Memorization of Factoids in Language Models はコメントを受け付けていません

The Impact of Unstated Norms in Bias Analysis of Language Models

要約 大規模な言語モデル(LLM)のバイアスには、明白な差別から暗黙のステレオタ … 続きを読む

カテゴリー: 68T50, cs.CL, cs.CY, cs.LG | The Impact of Unstated Norms in Bias Analysis of Language Models はコメントを受け付けていません

An Extensive Evaluation of PDDL Capabilities in off-the-shelf LLMs

要約 最近の進歩において、大規模な言語モデル(LLMS)は、コード生成と考え方の … 続きを読む

カテゴリー: cs.AI, cs.CL | An Extensive Evaluation of PDDL Capabilities in off-the-shelf LLMs はコメントを受け付けていません

Improving Neuron-level Interpretability with White-box Language Models

要約 GPT-2のような自動再帰言語モデルのニューロンは、その活性化パターンを分 … 続きを読む

カテゴリー: cs.CL, cs.LG | Improving Neuron-level Interpretability with White-box Language Models はコメントを受け付けていません

Layer-Aware Task Arithmetic: Disentangling Task-Specific and Instruction-Following Knowledge

要約 大規模な言語モデル(LLMS)は、微調整を通じてタスク固有の強力な機能を示 … 続きを読む

カテゴリー: cs.CL, cs.LG | Layer-Aware Task Arithmetic: Disentangling Task-Specific and Instruction-Following Knowledge はコメントを受け付けていません

EMS: Adaptive Evict-then-Merge Strategy for Head-wise KV Cache Compression Based on Global-Local Importance

要約 大規模な言語モデル(LLM)が進歩し続けるにつれて、さまざまなアプリケーシ … 続きを読む

カテゴリー: cs.CL | EMS: Adaptive Evict-then-Merge Strategy for Head-wise KV Cache Compression Based on Global-Local Importance はコメントを受け付けていません

ChineseEcomQA: A Scalable E-commerce Concept Evaluation Benchmark for Large Language Models

要約 eコマースなどのフィールドでの大規模な言語モデル(LLM)の使用が増えてい … 続きを読む

カテゴリー: cs.CL | ChineseEcomQA: A Scalable E-commerce Concept Evaluation Benchmark for Large Language Models はコメントを受け付けていません