cs.CL」カテゴリーアーカイブ

Tag-LLM: Repurposing General-Purpose LLMs for Specialized Domains

要約 大規模言語モデル (LLM) は、自然言語の理解と生成において顕著な熟練度 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Tag-LLM: Repurposing General-Purpose LLMs for Specialized Domains はコメントを受け付けていません

Contextual Position Encoding: Learning to Count What’s Important

要約 アテンション メカニズムは、大規模言語モデル (LLM) の重要なコンポー … 続きを読む

カテゴリー: cs.AI, cs.CL | Contextual Position Encoding: Learning to Count What’s Important はコメントを受け付けていません

Large Language Models Can Self-Improve At Web Agent Tasks

要約 Web ブラウザなどの複雑な環境で効果的に移動してアクションを実行できるエ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Large Language Models Can Self-Improve At Web Agent Tasks はコメントを受け付けていません

ANAH: Analytical Annotation of Hallucinations in Large Language Models

要約 大規模言語モデル (LLM) の「$\textit{幻覚}$」問題を軽減す … 続きを読む

カテゴリー: cs.AI, cs.CL | ANAH: Analytical Annotation of Hallucinations in Large Language Models はコメントを受け付けていません

CausalQuest: Collecting Natural Causal Questions for AI Agents

要約 人間には因果関係を探ろうとする生来の本能があります。 好奇心や特定の目標に … 続きを読む

カテゴリー: cs.AI, cs.CC, cs.CL, cs.LG | CausalQuest: Collecting Natural Causal Questions for AI Agents はコメントを受け付けていません

Jina CLIP: Your CLIP Model Is Also Your Text Retriever

要約 Contrastive Language-Image Pretrainin … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.CV, cs.IR, I.2.7 | Jina CLIP: Your CLIP Model Is Also Your Text Retriever はコメントを受け付けていません

ETHER: Efficient Finetuning of Large-Scale Models with Hyperplane Reflections

要約 パラメーター効率の良い微調整 (PEFT) は、一般化機能を維持しながら基 … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.LG | ETHER: Efficient Finetuning of Large-Scale Models with Hyperplane Reflections はコメントを受け付けていません

You Need to Pay Better Attention: Rethinking the Mathematics of Attention Mechanism

要約 スケーリング ドット プロダクト アテンション (SDPA) は、多くの最 … 続きを読む

カテゴリー: (Primary), 15A03, 15A04, 68T10, 68T50, cs.AI, cs.CL, cs.CV, cs.LG, I.2.10 | You Need to Pay Better Attention: Rethinking the Mathematics of Attention Mechanism はコメントを受け付けていません

From One to Many: Expanding the Scope of Toxicity Mitigation in Language Models

要約 これまで、言語モデルにおける有害性の軽減は、ほぼ完全に単一言語設定に焦点を … 続きを読む

カテゴリー: cs.AI, cs.CL | From One to Many: Expanding the Scope of Toxicity Mitigation in Language Models はコメントを受け付けていません

MAP-Neo: Highly Capable and Transparent Bilingual Large Language Model Series

要約 大規模言語モデル (LLM) は近年大きな進歩を遂げ、さまざまなタスクにわ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | MAP-Neo: Highly Capable and Transparent Bilingual Large Language Model Series はコメントを受け付けていません