cs.PF」カテゴリーアーカイブ

It’s all about PR — Smart Benchmarking AI Accelerators using Performance Representatives

要約 統計モデルは、商用既製 (COTS) AI ハードウェア アクセラレータの … 続きを読む

カテゴリー: cs.AI, cs.AR, cs.LG, cs.PF | It’s all about PR — Smart Benchmarking AI Accelerators using Performance Representatives はコメントを受け付けていません

ProTrain: Efficient LLM Training via Memory-Aware Techniques

要約 大規模言語モデル (LLM) をトレーニングするには、非常にメモリを消費し … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG, cs.PF | ProTrain: Efficient LLM Training via Memory-Aware Techniques はコメントを受け付けていません

Unveiling Energy Efficiency in Deep Learning: Measurement, Prediction, and Scoring across Edge Devices

要約 現在、ディープラーニングの最適化は主に、高い推論精度の達成とレイテンシの短 … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.NI, cs.PF, I.2.11 | Unveiling Energy Efficiency in Deep Learning: Measurement, Prediction, and Scoring across Edge Devices はコメントを受け付けていません

QJL: 1-Bit Quantized JL Transform for KV Cache Quantization with Zero Overhead

要約 LLM を提供するには、KV キャッシュ内の Key-Value (KV) … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.PF | QJL: 1-Bit Quantized JL Transform for KV Cache Quantization with Zero Overhead はコメントを受け付けていません

Off-the-Shelf Neural Network Architectures for Forex Time Series Prediction come at a Cost

要約 私たちの研究は、さまざまな長期短期記憶 (LSTM) ニューラル ネットワ … 続きを読む

カテゴリー: cs.AI, cs.CE, cs.LG, cs.PF | Off-the-Shelf Neural Network Architectures for Forex Time Series Prediction come at a Cost はコメントを受け付けていません

LFED: A Literary Fiction Evaluation Dataset for Large Language Models

要約 大規模言語モデル (LLM) の急速な進化により、さまざまな側面にわたって … 続きを読む

カテゴリー: cs.CL, cs.PF | LFED: A Literary Fiction Evaluation Dataset for Large Language Models はコメントを受け付けていません

Stochastic Q-learning for Large Discrete Action Spaces

要約 大規模な離散アクション空間を持つ複雑な環境では、強化学習 (RL) におい … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.PF, cs.RO, stat.ML | Stochastic Q-learning for Large Discrete Action Spaces はコメントを受け付けていません

A 4D Hybrid Algorithm to Scale Parallel Training to Thousands of GPUs

要約 大量の通信、特に集団操作は、10 億パラメータのニューラル ネットワークの … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG, cs.PF | A 4D Hybrid Algorithm to Scale Parallel Training to Thousands of GPUs はコメントを受け付けていません

QServe: W4A8KV4 Quantization and System Co-design for Efficient LLM Serving

要約 量子化により、大規模言語モデル (LLM) 推論を高速化できます。 研究コ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.PF | QServe: W4A8KV4 Quantization and System Co-design for Efficient LLM Serving はコメントを受け付けていません

QServe: W4A8KV4 Quantization and System Co-design for Efficient LLM Serving

要約 量子化により、大規模言語モデル (LLM) 推論を高速化できます。 研究コ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.PF | QServe: W4A8KV4 Quantization and System Co-design for Efficient LLM Serving はコメントを受け付けていません