cs.LG」カテゴリーアーカイブ

Necessary and Sufficient Oracles: Toward a Computational Taxonomy For Reinforcement Learning

要約 大規模な状態空間の強化学習(RL)のアルゴリズムは、監視された学習サブルー … 続きを読む

カテゴリー: cs.CC, cs.LG | Necessary and Sufficient Oracles: Toward a Computational Taxonomy For Reinforcement Learning はコメントを受け付けていません

Joint Transmit and Pinching Beamforming for PASS: Optimization-Based or Learning-Based?

要約 新しいピンチアンテナシステム(PASS)対応のダウンリンクマルチユーザーマ … 続きを読む

カテゴリー: cs.IT, cs.LG, eess.SP, math.IT | Joint Transmit and Pinching Beamforming for PASS: Optimization-Based or Learning-Based? はコメントを受け付けていません

Improving Existing Optimization Algorithms with LLMs

要約 大規模な言語モデル(LLMS)を最適化に統合することで、強力な相乗効果が生 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.SE, I.2.7 | Improving Existing Optimization Algorithms with LLMs はコメントを受け付けていません

TAID: Temporally Adaptive Interpolated Distillation for Efficient Knowledge Transfer in Language Models

要約 因果言語モデルは顕著な能力を実証していますが、そのサイズは、リソースに制約 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | TAID: Temporally Adaptive Interpolated Distillation for Efficient Knowledge Transfer in Language Models はコメントを受け付けていません

$C^2$: Scalable Auto-Feedback for LLM-based Chart Generation

要約 大規模な言語モデル(LLM)を備えた高品質のチャートを生成することは、デー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | $C^2$: Scalable Auto-Feedback for LLM-based Chart Generation はコメントを受け付けていません

From Haystack to Needle: Label Space Reduction for Zero-shot Classification

要約 ラベルスペース削減(LSR)を提示します。これは、大規模な言語モデル(LL … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | From Haystack to Needle: Label Space Reduction for Zero-shot Classification はコメントを受け付けていません

LLM Pretraining with Continuous Concepts

要約 次のトークン予測は、大規模な言語モデルの事前化で使用される標準的なトレーニ … 続きを読む

カテゴリー: cs.CL, cs.LG | LLM Pretraining with Continuous Concepts はコメントを受け付けていません

QA-Expand: Multi-Question Answer Generation for Enhanced Query Expansion in Information Retrieval

要約 クエリの拡張は、追加のコンテキスト情報でクエリを充実させることにより、検索 … 続きを読む

カテゴリー: cs.CL, cs.IR, cs.LG, cs.MA | QA-Expand: Multi-Question Answer Generation for Enhanced Query Expansion in Information Retrieval はコメントを受け付けていません

Better Embeddings with Coupled Adam

要約 それらの驚くべき能力にもかかわらず、LLMSは、異方性の望ましくないが理解 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Better Embeddings with Coupled Adam はコメントを受け付けていません

How Sparse Attention Approximates Exact Attention? Your Attention is Naturally $n^C$-Sparse

要約 まばらな注意は、標準的な注意計算を亜科下の複雑さで近似する手法です。 これ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | How Sparse Attention Approximates Exact Attention? Your Attention is Naturally $n^C$-Sparse はコメントを受け付けていません