-
最近の投稿
- Learning Transferable Friction Models and LuGre Identification via Physics Informed Neural Networks
- Unified World Models: Coupling Video and Action Diffusion for Pretraining on Large Robotic Datasets
- Robust Visual Servoing under Human Supervision for Assembly Tasks
- Practical Insights on Grasp Strategies for Mobile Manipulation in the Wild
- UniPhys: Unified Planner and Controller with Diffusion for Flexible Physics-Based Character Control
-
最近のコメント
表示できるコメントはありません。 cs.AI (36765) cs.CL (27832) cs.CV (42568) cs.HC (2808) cs.LG (41724) cs.RO (21762) cs.SY (3312) eess.IV (4970) eess.SY (3304) stat.ML (5460)
「cs.PF」カテゴリーアーカイブ
GREEN-CODE: Learning to Optimize Energy Efficiency in LLM-based Code Generation
要約 大規模な言語モデル(LLM)は、日常生活に不可欠になり、さまざまな自然言語 … 続きを読む
Investigating Execution-Aware Language Models for Code Optimization
要約 コードの最適化は、意図した機能を維持しながら、コード効率を向上させるプロセ … 続きを読む
PriorMotion: Generative Class-Agnostic Motion Prediction with Raster-Vector Motion Field Priors
要約 信頼できる空間と動きの認識は、安全な自律的なナビゲーションに不可欠です。 … 続きを読む
Leveraging Approximate Caching for Faster Retrieval-Augmented Generation
要約 検索された生成(RAG)は、外部知識を統合することにより、大規模な言語モデ … 続きを読む
Energy-Efficient Transformer Inference: Optimization Strategies for Time Series Classification
要約 時系列分類におけるトランスモデルの計算需要の増加は、エネルギー効率の高い展 … 続きを読む
SpargeAttn: Accurate Sparse Attention Accelerating Any Model Inference
要約 大規模なモデルには、二次時間の複雑さがあるため、効率的な注意実装が不可欠で … 続きを読む
LServe: Efficient Long-sequence LLM Serving with Unified Sparse Attention
要約 大規模な言語モデル(LLM)は、長いシーケンスの処理において顕著な可能性を … 続きを読む
Glinthawk: A Two-Tiered Architecture for Offline LLM Inference
要約 オフラインの大手言語モデル(LLM)推論のアーキテクチャであるGlinTh … 続きを読む
Longer Attention Span: Increasing Transformer Context Length with Sparse Graph Processing Techniques
要約 変圧器は、自然言語処理やバイオインフォマティクスなど、多くのドメインで大き … 続きを読む
Kino-PAX: Highly Parallel Kinodynamic Sampling-based Planner
要約 サンプリングベースのモーションプランナー(SBMP)は、高次元空間で複雑な … 続きを読む