cs.AI」カテゴリーアーカイブ

Compromising Honesty and Harmlessness in Language Models via Deception Attacks

要約 大規模な言語モデル(LLMS)に関する最近の研究は、明示的な促進がなくても … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY | Compromising Honesty and Harmlessness in Language Models via Deception Attacks はコメントを受け付けていません

Rethinking Chain-of-Thought from the Perspective of Self-Training

要約 LLMの潜在能力をアクティブにするための効果的なアプローチとして、チェーン … 続きを読む

カテゴリー: cs.AI, cs.CL | Rethinking Chain-of-Thought from the Perspective of Self-Training はコメントを受け付けていません

TAID: Temporally Adaptive Interpolated Distillation for Efficient Knowledge Transfer in Language Models

要約 因果言語モデルは顕著な能力を実証していますが、そのサイズは、リソースに制約 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | TAID: Temporally Adaptive Interpolated Distillation for Efficient Knowledge Transfer in Language Models はコメントを受け付けていません

$C^2$: Scalable Auto-Feedback for LLM-based Chart Generation

要約 大規模な言語モデル(LLM)を備えた高品質のチャートを生成することは、デー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | $C^2$: Scalable Auto-Feedback for LLM-based Chart Generation はコメントを受け付けていません

Top-Theta Attention: Sparsifying Transformers by Compensated Thresholding

要約 注意メカニズムは、トランスベースの大手言語モデル(LLMS)の印象的な能力 … 続きを読む

カテゴリー: 68T01, cs.AI, cs.CL, I.2 | Top-Theta Attention: Sparsifying Transformers by Compensated Thresholding はコメントを受け付けていません

U-shaped and Inverted-U Scaling behind Emergent Abilities of Large Language Models

要約 大規模な言語モデル(LLM)は、いくつかの下流タスクで緊急能力を示すことが … 続きを読む

カテゴリー: cs.AI, cs.CL | U-shaped and Inverted-U Scaling behind Emergent Abilities of Large Language Models はコメントを受け付けていません

NYT-Connections: A Deceptively Simple Text Classification Task that Stumps System-1 Thinkers

要約 大規模な言語モデル(LLM)は、さまざまなベンチマークで印象的なパフォーマ … 続きを読む

カテゴリー: cs.AI, cs.CL | NYT-Connections: A Deceptively Simple Text Classification Task that Stumps System-1 Thinkers はコメントを受け付けていません

From Haystack to Needle: Label Space Reduction for Zero-shot Classification

要約 ラベルスペース削減(LSR)を提示します。これは、大規模な言語モデル(LL … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | From Haystack to Needle: Label Space Reduction for Zero-shot Classification はコメントを受け付けていません

Better Embeddings with Coupled Adam

要約 それらの驚くべき能力にもかかわらず、LLMSは、異方性の望ましくないが理解 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Better Embeddings with Coupled Adam はコメントを受け付けていません

How Sparse Attention Approximates Exact Attention? Your Attention is Naturally $n^C$-Sparse

要約 まばらな注意は、標準的な注意計算を亜科下の複雑さで近似する手法です。 これ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | How Sparse Attention Approximates Exact Attention? Your Attention is Naturally $n^C$-Sparse はコメントを受け付けていません