cs.LG」カテゴリーアーカイブ

An Aspect Extraction Framework using Different Embedding Types, Learning Models, and Dependency Structure

要約 エンティティの特定の特徴に関連するセンチメント表現に細粒の洞察を提供する能 … 続きを読む

カテゴリー: cs.CL, cs.LG | An Aspect Extraction Framework using Different Embedding Types, Learning Models, and Dependency Structure はコメントを受け付けていません

From Sparse Dependence to Sparse Attention: Unveiling How Chain-of-Thought Enhances Transformer Sample Efficiency

要約 チェーンオブシュート(COT)は、大規模な言語モデル(LLM)の推論パフォ … 続きを読む

カテゴリー: cs.CL, cs.LG, stat.ML | From Sparse Dependence to Sparse Attention: Unveiling How Chain-of-Thought Enhances Transformer Sample Efficiency はコメントを受け付けていません

PowerAttention: Exponentially Scaling of Receptive Fields for Effective Sparse Attention

要約 大規模な言語モデル(LLM)は、長いコンテキストを処理する際の注意メカニズ … 続きを読む

カテゴリー: cs.CL, cs.LG | PowerAttention: Exponentially Scaling of Receptive Fields for Effective Sparse Attention はコメントを受け付けていません

Unveiling Simplicities of Attention: Adaptive Long-Context Head Identification

要約 長いコンテキストを処理する能力は、多くの自然言語処理タスクにとって重要です … 続きを読む

カテゴリー: cs.CL, cs.LG | Unveiling Simplicities of Attention: Adaptive Long-Context Head Identification はコメントを受け付けていません

Analogical Reasoning Inside Large Language Models: Concept Vectors and the Limits of Abstraction

要約 類推的な推論は概念的な抽象化に依存していますが、大規模な言語モデル(LLM … 続きを読む

カテゴリー: cs.CL, cs.LG | Analogical Reasoning Inside Large Language Models: Concept Vectors and the Limits of Abstraction はコメントを受け付けていません

CTC-DRO: Robust Optimization for Reducing Language Disparities in Speech Recognition

要約 最新のディープラーニングモデルは、多くの場合、全体的なパフォーマンスが高い … 続きを読む

カテゴリー: cs.CL, cs.LG, eess.AS | CTC-DRO: Robust Optimization for Reducing Language Disparities in Speech Recognition はコメントを受け付けていません

Effective LLM Knowledge Learning via Model Generalization

要約 大規模な言語モデル(LLM)は、広範な世界知識を含む膨大な文書で訓練されて … 続きを読む

カテゴリー: cs.CL, cs.LG | Effective LLM Knowledge Learning via Model Generalization はコメントを受け付けていません

Improving LLM Safety Alignment with Dual-Objective Optimization

要約 大規模な言語モデル(LLM)の既存のトレーニング時間安全アライメント手法は … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Improving LLM Safety Alignment with Dual-Objective Optimization はコメントを受け付けていません

Online Scheduling for LLM Inference with KV Cache Constraints

要約 トレーニングされたモデルがユーザープロンプトに応じて一度に1つの単語を生成 … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC | Online Scheduling for LLM Inference with KV Cache Constraints はコメントを受け付けていません

LLMs can be Dangerous Reasoners: Analyzing-based Jailbreak Attack on Large Language Models

要約 大規模な言語モデル(LLMS)の急速な発展は、さまざまなタスクにわたって大 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | LLMs can be Dangerous Reasoners: Analyzing-based Jailbreak Attack on Large Language Models はコメントを受け付けていません