cs.CL」カテゴリーアーカイブ

How to Build an Adaptive AI Tutor for Any Course Using Knowledge Graph-Enhanced Retrieval-Augmented Generation (KG-RAG)

要約 インテリジェントな個別指導システム(ITS)に大規模な言語モデル(LLM) … 続きを読む

カテゴリー: cs.CL | How to Build an Adaptive AI Tutor for Any Course Using Knowledge Graph-Enhanced Retrieval-Augmented Generation (KG-RAG) はコメントを受け付けていません

Syntriever: How to Train Your Retriever with Synthetic Data from LLMs

要約 LLMは、多くのAIアプリケーションで進捗を後押ししています。 最近、LL … 続きを読む

カテゴリー: cs.AI, cs.CL | Syntriever: How to Train Your Retriever with Synthetic Data from LLMs はコメントを受け付けていません

Improving Existing Optimization Algorithms with LLMs

要約 大規模な言語モデル(LLMS)を最適化に統合することで、強力な相乗効果が生 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.SE, I.2.7 | Improving Existing Optimization Algorithms with LLMs はコメントを受け付けていません

Compromising Honesty and Harmlessness in Language Models via Deception Attacks

要約 大規模な言語モデル(LLMS)に関する最近の研究は、明示的な促進がなくても … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY | Compromising Honesty and Harmlessness in Language Models via Deception Attacks はコメントを受け付けていません

Word Synchronization Challenge: A Benchmark for Word Association Responses for LLMs

要約 このペーパーでは、ヒューマンコンピューターの相互作用(HCI)の大規模な言 … 続きを読む

カテゴリー: cs.CL, cs.HC | Word Synchronization Challenge: A Benchmark for Word Association Responses for LLMs はコメントを受け付けていません

MultiProSE: A Multi-label Arabic Dataset for Propaganda, Sentiment, and Emotion Detection

要約 プロパガンダは、決定された目的のための修辞的および心理的説得技術を通じて人 … 続きを読む

カテゴリー: cs.CL | MultiProSE: A Multi-label Arabic Dataset for Propaganda, Sentiment, and Emotion Detection はコメントを受け付けていません

Rethinking Chain-of-Thought from the Perspective of Self-Training

要約 LLMの潜在能力をアクティブにするための効果的なアプローチとして、チェーン … 続きを読む

カテゴリー: cs.AI, cs.CL | Rethinking Chain-of-Thought from the Perspective of Self-Training はコメントを受け付けていません

Contextual Compression Encoding for Large Language Models: A Novel Framework for Multi-Layered Parameter Space Pruning

要約 モデルサイズが成長し続けるにつれて、コンテキスト認識の圧縮技術は注目を集め … 続きを読む

カテゴリー: cs.CL | Contextual Compression Encoding for Large Language Models: A Novel Framework for Multi-Layered Parameter Space Pruning はコメントを受け付けていません

TAID: Temporally Adaptive Interpolated Distillation for Efficient Knowledge Transfer in Language Models

要約 因果言語モデルは顕著な能力を実証していますが、そのサイズは、リソースに制約 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | TAID: Temporally Adaptive Interpolated Distillation for Efficient Knowledge Transfer in Language Models はコメントを受け付けていません

Systematic Knowledge Injection into Large Language Models via Diverse Augmentation for Domain-Specific RAG

要約 検索された生成(RAG)は、ドメインの知識を大規模な言語モデル(LLM)に … 続きを読む

カテゴリー: cs.CL | Systematic Knowledge Injection into Large Language Models via Diverse Augmentation for Domain-Specific RAG はコメントを受け付けていません