-
最近の投稿
- Structuring Scientific Innovation: A Framework for Modeling and Discovering Impactful Knowledge Combinations
- MC-LLaVA: Multi-Concept Personalized Vision-Language Model
- Aether: Geometric-Aware Unified World Modeling
- LinkAlign: Scalable Schema Linking for Real-World Large-Scale Multi-Database Text-to-SQL
- Learning to segment anatomy and lesions from disparately labeled sources in brain MRI
-
最近のコメント
表示できるコメントはありません。 cs.AI (35598) cs.CL (26907) cs.CR (2720) cs.CV (41426) cs.LG (40562) cs.RO (20968) cs.SY (3177) eess.IV (4886) eess.SY (3171) stat.ML (5321)
「cs.PF」カテゴリーアーカイブ
BitDecoding: Unlocking Tensor Cores for Long-Context LLMs Decoding with Low-Bit KV Cache
要約 長いコンテキストの大規模な言語モデル(LLMS)の採用の増大は、キー価値( … 続きを読む
GREEN-CODE: Learning to Optimize Energy Efficiency in LLM-based Code Generation
要約 大規模な言語モデル(LLM)は、日常生活に不可欠になり、さまざまな自然言語 … 続きを読む
Investigating Execution-Aware Language Models for Code Optimization
要約 コードの最適化は、意図した機能を維持しながら、コード効率を向上させるプロセ … 続きを読む
PriorMotion: Generative Class-Agnostic Motion Prediction with Raster-Vector Motion Field Priors
要約 信頼できる空間と動きの認識は、安全な自律的なナビゲーションに不可欠です。 … 続きを読む
Leveraging Approximate Caching for Faster Retrieval-Augmented Generation
要約 検索された生成(RAG)は、外部知識を統合することにより、大規模な言語モデ … 続きを読む
Energy-Efficient Transformer Inference: Optimization Strategies for Time Series Classification
要約 時系列分類におけるトランスモデルの計算需要の増加は、エネルギー効率の高い展 … 続きを読む
SpargeAttn: Accurate Sparse Attention Accelerating Any Model Inference
要約 大規模なモデルには、二次時間の複雑さがあるため、効率的な注意実装が不可欠で … 続きを読む
LServe: Efficient Long-sequence LLM Serving with Unified Sparse Attention
要約 大規模な言語モデル(LLM)は、長いシーケンスの処理において顕著な可能性を … 続きを読む
Glinthawk: A Two-Tiered Architecture for Offline LLM Inference
要約 オフラインの大手言語モデル(LLM)推論のアーキテクチャであるGlinTh … 続きを読む
Longer Attention Span: Increasing Transformer Context Length with Sparse Graph Processing Techniques
要約 変圧器は、自然言語処理やバイオインフォマティクスなど、多くのドメインで大き … 続きを読む