月別アーカイブ: 2025年2月

Layer-Aware Task Arithmetic: Disentangling Task-Specific and Instruction-Following Knowledge

要約 大規模な言語モデル(LLMS)は、微調整を通じてタスク固有の強力な機能を示 … 続きを読む

カテゴリー: cs.CL, cs.LG | Layer-Aware Task Arithmetic: Disentangling Task-Specific and Instruction-Following Knowledge はコメントを受け付けていません

EMS: Adaptive Evict-then-Merge Strategy for Head-wise KV Cache Compression Based on Global-Local Importance

要約 大規模な言語モデル(LLM)が進歩し続けるにつれて、さまざまなアプリケーシ … 続きを読む

カテゴリー: cs.CL | EMS: Adaptive Evict-then-Merge Strategy for Head-wise KV Cache Compression Based on Global-Local Importance はコメントを受け付けていません

ChineseEcomQA: A Scalable E-commerce Concept Evaluation Benchmark for Large Language Models

要約 eコマースなどのフィールドでの大規模な言語モデル(LLM)の使用が増えてい … 続きを読む

カテゴリー: cs.CL | ChineseEcomQA: A Scalable E-commerce Concept Evaluation Benchmark for Large Language Models はコメントを受け付けていません

Granite Embedding Models

要約 英語と多言語の両方の機能を備えた、密な網状およびまばらな検索アーキテクチャ … 続きを読む

カテゴリー: cs.CL, cs.IR | Granite Embedding Models はコメントを受け付けていません

Sheffield’s Submission to the AmericasNLP Shared Task on Machine Translation into Indigenous Languages

要約 この論文では、シェフィールド大学のAmericasNLP 2023への提出 … 続きを読む

カテゴリー: cs.CL | Sheffield’s Submission to the AmericasNLP Shared Task on Machine Translation into Indigenous Languages はコメントを受け付けていません

Probing-RAG: Self-Probing to Guide Language Models in Selective Document Retrieval

要約 検索された生成(RAG)は、関連する外部知識を取得および組み込むことにより … 続きを読む

カテゴリー: cs.CL | Probing-RAG: Self-Probing to Guide Language Models in Selective Document Retrieval はコメントを受け付けていません

FINEREASON: Evaluating and Improving LLMs’ Deliberate Reasoning through Reflective Puzzle Solving

要約 多くの挑戦的な推論タスクには、迅速で直感的な応答だけでなく、より意図的なマ … 続きを読む

カテゴリー: cs.CL | FINEREASON: Evaluating and Improving LLMs’ Deliberate Reasoning through Reflective Puzzle Solving はコメントを受け付けていません

From Retrieval to Generation: Comparing Different Approaches

要約 知識集約型のタスク、特にオープンドメインの質問応答(ODQA)、ドキュメン … 続きを読む

カテゴリー: cs.CL | From Retrieval to Generation: Comparing Different Approaches はコメントを受け付けていません

Beyond Natural Language Perplexity: Detecting Dead Code Poisoning in Code Generation Datasets

要約 コード関連のタスクに大規模な言語モデル(LLM)を採用することは、トレーニ … 続きを読む

カテゴリー: cs.CL | Beyond Natural Language Perplexity: Detecting Dead Code Poisoning in Code Generation Datasets はコメントを受け付けていません

RRM: Robust Reward Model Training Mitigates Reward Hacking

要約 報酬モデル(RMS)は、大規模な言語モデル(LLM)を人間の好みに合わせて … 続きを読む

カテゴリー: cs.CL | RRM: Robust Reward Model Training Mitigates Reward Hacking はコメントを受け付けていません