月別アーカイブ: 2025年2月

From Haystack to Needle: Label Space Reduction for Zero-shot Classification

要約 ラベルスペース削減(LSR)を提示します。これは、大規模な言語モデル(LL … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | From Haystack to Needle: Label Space Reduction for Zero-shot Classification はコメントを受け付けていません

Investigating Continual Pretraining in Large Language Models: Insights and Implications

要約 大規模な言語モデル(LLMS)の継続的な学習(CL)は、モデルを新しい知識 … 続きを読む

カテゴリー: cs.CL | Investigating Continual Pretraining in Large Language Models: Insights and Implications はコメントを受け付けていません

Why Are My Prompts Leaked? Unraveling Prompt Extraction Threats in Customized Large Language Models

要約 大規模な言語モデルの劇的な増加(LLMS)パラメーターは、プロンプト、つま … 続きを読む

カテゴリー: cs.CL, cs.CR | Why Are My Prompts Leaked? Unraveling Prompt Extraction Threats in Customized Large Language Models はコメントを受け付けていません

Examining Spanish Counseling with MIDAS: a Motivational Interviewing Dataset in Spanish

要約 文化的および言語的要因はカウンセリングに大きな影響を与えていますが、自然言 … 続きを読む

カテゴリー: cs.CL | Examining Spanish Counseling with MIDAS: a Motivational Interviewing Dataset in Spanish はコメントを受け付けていません

Salamandra Technical Report

要約 この作業では、3つの異なるサイズのオープンソースデコーダーのみの大型言語モ … 続きを読む

カテゴリー: cs.CL | Salamandra Technical Report はコメントを受け付けていません

Explanation based In-Context Demonstrations Retrieval for Multilingual Grammatical Error Correction

要約 文法エラー補正(GEC)は、自然言語テキストの文法、スペル、および意味エラ … 続きを読む

カテゴリー: cs.CL | Explanation based In-Context Demonstrations Retrieval for Multilingual Grammatical Error Correction はコメントを受け付けていません

Faithful, Unfaithful or Ambiguous? Multi-Agent Debate with Initial Stance for Summary Evaluation

要約 大規模な言語モデル(LLM)に基づいた忠実さの評価者は、テキストの流enc … 続きを読む

カテゴリー: cs.CL | Faithful, Unfaithful or Ambiguous? Multi-Agent Debate with Initial Stance for Summary Evaluation はコメントを受け付けていません

Exploiting Sparsity for Long Context Inference: Million Token Contexts on Commodity GPUs

要約 訓練されたトランスモデルに数十万の入力トークンを使用して、推論を実行する需 … 続きを読む

カテゴリー: cs.CL | Exploiting Sparsity for Long Context Inference: Million Token Contexts on Commodity GPUs はコメントを受け付けていません

LLM Pretraining with Continuous Concepts

要約 次のトークン予測は、大規模な言語モデルの事前化で使用される標準的なトレーニ … 続きを読む

カテゴリー: cs.CL, cs.LG | LLM Pretraining with Continuous Concepts はコメントを受け付けていません

QA-Expand: Multi-Question Answer Generation for Enhanced Query Expansion in Information Retrieval

要約 クエリの拡張は、追加のコンテキスト情報でクエリを充実させることにより、検索 … 続きを読む

カテゴリー: cs.CL, cs.IR, cs.LG, cs.MA | QA-Expand: Multi-Question Answer Generation for Enhanced Query Expansion in Information Retrieval はコメントを受け付けていません