cs.DC」カテゴリーアーカイブ

A Federated Splitting Framework for LLMs: Security, Efficiency, and Adaptability

要約 プライベートデータは通常、パブリックデータよりも高品質であり、LLMを改善 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DC | A Federated Splitting Framework for LLMs: Security, Efficiency, and Adaptability はコメントを受け付けていません

Resource Heterogeneity-Aware and Utilization-Enhanced Scheduling for Deep Learning Clusters

要約 GPUやTPUなどのアクセラレータを備えた強力なクラスターをトレーニングす … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG, I.2.11 | Resource Heterogeneity-Aware and Utilization-Enhanced Scheduling for Deep Learning Clusters はコメントを受け付けていません

KunServe: Efficient Parameter-centric Memory Management for LLM Serving

要約 GPUのクラスターを使用してLLMSを提供することは最近一般的であり、サー … 続きを読む

カテゴリー: cs.AI, cs.DC | KunServe: Efficient Parameter-centric Memory Management for LLM Serving はコメントを受け付けていません

Digital Twins in the Cloud: A Modular, Scalable and Interoperable Framework for Accelerating Verification and Validation of Autonomous Driving Solutions

要約 自動運転車(AVS)の検証と検証(V&V)には、通常、さまざまな動作環境に … 続きを読む

カテゴリー: cs.DC, cs.RO | Digital Twins in the Cloud: A Modular, Scalable and Interoperable Framework for Accelerating Verification and Validation of Autonomous Driving Solutions はコメントを受け付けていません

Occult: Optimizing Collaborative Communication across Experts for Accelerated Parallel MoE Training and Inference

要約 混合混合物(MOE)アーキテクチャは、専門家の並列性を備えた印象的な計算効 … 続きを読む

カテゴリー: cs.DC, cs.LG | Occult: Optimizing Collaborative Communication across Experts for Accelerated Parallel MoE Training and Inference はコメントを受け付けていません

MegaScale-MoE: Large-Scale Communication-Efficient Training of Mixture-of-Experts Models in Production

要約 大規模な混合物(MOE)モデルの効率的なトレーニングに合わせた生産システム … 続きを読む

カテゴリー: cs.DC, cs.LG | MegaScale-MoE: Large-Scale Communication-Efficient Training of Mixture-of-Experts Models in Production はコメントを受け付けていません

MoE-CAP: Benchmarking Cost, Accuracy and Performance of Sparse Mixture-of-Experts Systems

要約 スパースの混合物(MOE)アーキテクチャは、大規模な言語モデル(LLM)を … 続きを読む

カテゴリー: cs.DC, cs.LG | MoE-CAP: Benchmarking Cost, Accuracy and Performance of Sparse Mixture-of-Experts Systems はコメントを受け付けていません

MegaScale-MoE: Large-Scale Communication-Efficient Training of Mixture-of-Experts Models in Production

要約 大規模な混合物(MOE)モデルの効率的なトレーニングに合わせた生産システム … 続きを読む

カテゴリー: cs.DC, cs.LG | MegaScale-MoE: Large-Scale Communication-Efficient Training of Mixture-of-Experts Models in Production はコメントを受け付けていません

Scaling Multi Agent Reinforcement Learning for Underwater Acoustic Tracking via Autonomous Vehicles

要約 自動運転車(AV)は、水中追跡などの科学ミッションに費用対効果の高いソリュ … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.PF, cs.RO | Scaling Multi Agent Reinforcement Learning for Underwater Acoustic Tracking via Autonomous Vehicles はコメントを受け付けていません

Training Ultra Long Context Language Model with Fully Pipelined Distributed Transformer

要約 長いコンテキスト機能を備えた大規模な言語モデル(LLMS)は、テキスト生成 … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG | Training Ultra Long Context Language Model with Fully Pipelined Distributed Transformer はコメントを受け付けていません