cs.DC」カテゴリーアーカイブ

Enabling Large Batch Size Training for DNN Models Beyond the Memory Limit While Maintaining Performance

要約 最近の深層学習モデルは、大きなバッチ サイズを使用してトレーニングすること … 続きを読む

カテゴリー: cs.DC, cs.LG | コメントする

QSync: Quantization-Minimized Synchronous Distributed Training Across Hybrid Devices

要約 多くの実稼働ディープラーニング クラスターは、多くの推論 GPU がアイド … 続きを読む

カテゴリー: cs.DC, cs.LG | コメントする

Uncertainty-Aware Decarbonization for Datacenters

要約 この論文は、データセンターの脱炭素化に向けた炭素強度予測の不確実性を定量化 … 続きを読む

カテゴリー: cs.DC, cs.LG | コメントする

Analytics of Longitudinal System Monitoring Data for Performance Prediction

要約 近年、いくつかの HPC 施設は、パフォーマンスと運用効率を理解するために … 続きを読む

カテゴリー: cs.DC, cs.LG, cs.PF | コメントする

Decentralized Intelligence Network (DIN)

要約 分散型インテリジェンス ネットワーク (DIN) は、プロバイダーや機関に … 続きを読む

カテゴリー: cs.CR, cs.CY, cs.DC, cs.ET, cs.LG | コメントする

Fast and Efficient 2-bit LLM Inference on GPU: 2/4/16-bit in a Weight Matrix with Asynchronous Dequantization

要約 大規模言語モデル (LLM) は、さまざまなドメインで優れた能力を実証して … 続きを読む

カテゴリー: cs.DC, cs.LG | コメントする

DLRover-RM: Resource Optimization for Deep Recommendation Models Training in the Cloud

要約 ディープ ラーニング レコメンデーション モデル (DLRM) は、大規模 … 続きを読む

カテゴリー: cs.AI, cs.DB, cs.DC | コメントする

Distributed Speculative Inference of Large Language Models

要約 大規模言語モデル (LLM) の推論を高速化することは、人工知能における重 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DC, cs.LG | コメントする

GSplit: Scaling Graph Neural Network Training on Large Graphs via Split-Parallelism

要約 グラフ ニューラル ネットワーク (GNN) は、グラフ用の機械学習モデル … 続きを読む

カテゴリー: cs.DC, cs.LG | コメントする

Enhancing Federated Learning with Adaptive Differential Privacy and Priority-Based Aggregation

要約 分散型機械学習 (ML) の新しい分野であるフェデレーテッド ラーニング … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG | コメントする