cs.AI」カテゴリーアーカイブ

SepLLM: Accelerate Large Language Models by Compressing One Segment into One Separator

要約 大規模な言語モデル(LLM)は、さまざまな自然言語処理タスクにわたって並外 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | SepLLM: Accelerate Large Language Models by Compressing One Segment into One Separator はコメントを受け付けていません

Unveiling Downstream Performance Scaling of LLMs: A Clustering-Based Perspective

要約 コンピューティングの急速な進歩により、大規模な言語モデル(LLM)のトレー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Unveiling Downstream Performance Scaling of LLMs: A Clustering-Based Perspective はコメントを受け付けていません

Text2World: Benchmarking Large Language Models for Symbolic World Model Generation

要約 最近、テキストの説明から象徴的な世界モデルを生成するために、大規模な言語モ … 続きを読む

カテゴリー: cs.AI, cs.CL | Text2World: Benchmarking Large Language Models for Symbolic World Model Generation はコメントを受け付けていません

REGENT: A Retrieval-Augmented Generalist Agent That Can Act In-Context in New Environments

要約 新しい環境に迅速に適応できるジェネラリストのエージェントの構築は、デジタル … 続きを読む

カテゴリー: cs.AI | REGENT: A Retrieval-Augmented Generalist Agent That Can Act In-Context in New Environments はコメントを受け付けていません

Capability Instruction Tuning: A New Paradigm for Dynamic LLM Routing

要約 大規模な言語モデル(LLMS)は、人間のような指導中の能力、特に1,000 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Capability Instruction Tuning: A New Paradigm for Dynamic LLM Routing はコメントを受け付けていません

Benchmarking Retrieval-Augmented Generation in Multi-Modal Contexts

要約 このペーパーでは、マルチモーダル大手言語モデル(MLLM)の有効性をマルチ … 続きを読む

カテゴリー: cs.AI | Benchmarking Retrieval-Augmented Generation in Multi-Modal Contexts はコメントを受け付けていません

Matryoshka Quantization

要約 モデルの重みの量子化は、大規模なモデルの通信コストと推論コストを削減するた … 続きを読む

カテゴリー: cs.AI, cs.LG | Matryoshka Quantization はコメントを受け付けていません

KVTuner: Sensitivity-Aware Layer-wise Mixed Precision KV Cache Quantization for Efficient and Nearly Lossless LLM Inference

要約 KVキャッシュの量子化は、LLMSの有効性を維持しながら、長いコンテキスト … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | KVTuner: Sensitivity-Aware Layer-wise Mixed Precision KV Cache Quantization for Efficient and Nearly Lossless LLM Inference はコメントを受け付けていません

Linear $Q$-Learning Does Not Diverge in $L^2$: Convergence Rates to a Bounded Set

要約 $ Q $ -Learningは、最も基本的な強化学習アルゴリズムの1つで … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Linear $Q$-Learning Does Not Diverge in $L^2$: Convergence Rates to a Bounded Set はコメントを受け付けていません

Bridging Social Media and Search Engines: Dredge Words and the Detection of Unreliable Domains

要約 プロアクティブなコンテンツモデレートには、プラットフォームがWebサイトの … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG, cs.SI | Bridging Social Media and Search Engines: Dredge Words and the Detection of Unreliable Domains はコメントを受け付けていません