cs.DC」カテゴリーアーカイブ

A Federated Splitting Framework for LLMs: Security, Efficiency, and Adaptability

要約 プライベートデータは通常、パブリックデータよりも高品質であり、LLMを改善 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DC | コメントする

Resource Heterogeneity-Aware and Utilization-Enhanced Scheduling for Deep Learning Clusters

要約 GPUやTPUなどのアクセラレータを備えた強力なクラスターをトレーニングす … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG, I.2.11 | コメントする

KunServe: Efficient Parameter-centric Memory Management for LLM Serving

要約 GPUのクラスターを使用してLLMSを提供することは最近一般的であり、サー … 続きを読む

カテゴリー: cs.AI, cs.DC | コメントする

Digital Twins in the Cloud: A Modular, Scalable and Interoperable Framework for Accelerating Verification and Validation of Autonomous Driving Solutions

要約 自動運転車(AVS)の検証と検証(V&V)には、通常、さまざまな動作環境に … 続きを読む

カテゴリー: cs.DC, cs.RO | コメントする

Occult: Optimizing Collaborative Communication across Experts for Accelerated Parallel MoE Training and Inference

要約 混合混合物(MOE)アーキテクチャは、専門家の並列性を備えた印象的な計算効 … 続きを読む

カテゴリー: cs.DC, cs.LG | コメントする

MegaScale-MoE: Large-Scale Communication-Efficient Training of Mixture-of-Experts Models in Production

要約 大規模な混合物(MOE)モデルの効率的なトレーニングに合わせた生産システム … 続きを読む

カテゴリー: cs.DC, cs.LG | コメントする

MoE-CAP: Benchmarking Cost, Accuracy and Performance of Sparse Mixture-of-Experts Systems

要約 スパースの混合物(MOE)アーキテクチャは、大規模な言語モデル(LLM)を … 続きを読む

カテゴリー: cs.DC, cs.LG | コメントする

MegaScale-MoE: Large-Scale Communication-Efficient Training of Mixture-of-Experts Models in Production

要約 大規模な混合物(MOE)モデルの効率的なトレーニングに合わせた生産システム … 続きを読む

カテゴリー: cs.DC, cs.LG | コメントする

Scaling Multi Agent Reinforcement Learning for Underwater Acoustic Tracking via Autonomous Vehicles

要約 自動運転車(AV)は、水中追跡などの科学ミッションに費用対効果の高いソリュ … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.PF, cs.RO | コメントする

Training Ultra Long Context Language Model with Fully Pipelined Distributed Transformer

要約 長いコンテキスト機能を備えた大規模な言語モデル(LLMS)は、テキスト生成 … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG | コメントする