cs.DC」カテゴリーアーカイブ

Uncertainty-Aware Decarbonization for Datacenters

要約 この論文は、データセンターの脱炭素化に向けた炭素強度予測の不確実性を定量化 … 続きを読む

カテゴリー: cs.DC, cs.LG | Uncertainty-Aware Decarbonization for Datacenters はコメントを受け付けていません

Analytics of Longitudinal System Monitoring Data for Performance Prediction

要約 近年、いくつかの HPC 施設は、パフォーマンスと運用効率を理解するために … 続きを読む

カテゴリー: cs.DC, cs.LG, cs.PF | Analytics of Longitudinal System Monitoring Data for Performance Prediction はコメントを受け付けていません

Decentralized Intelligence Network (DIN)

要約 分散型インテリジェンス ネットワーク (DIN) は、プロバイダーや機関に … 続きを読む

カテゴリー: cs.CR, cs.CY, cs.DC, cs.ET, cs.LG | Decentralized Intelligence Network (DIN) はコメントを受け付けていません

Fast and Efficient 2-bit LLM Inference on GPU: 2/4/16-bit in a Weight Matrix with Asynchronous Dequantization

要約 大規模言語モデル (LLM) は、さまざまなドメインで優れた能力を実証して … 続きを読む

カテゴリー: cs.DC, cs.LG | Fast and Efficient 2-bit LLM Inference on GPU: 2/4/16-bit in a Weight Matrix with Asynchronous Dequantization はコメントを受け付けていません

DLRover-RM: Resource Optimization for Deep Recommendation Models Training in the Cloud

要約 ディープ ラーニング レコメンデーション モデル (DLRM) は、大規模 … 続きを読む

カテゴリー: cs.AI, cs.DB, cs.DC | DLRover-RM: Resource Optimization for Deep Recommendation Models Training in the Cloud はコメントを受け付けていません

Distributed Speculative Inference of Large Language Models

要約 大規模言語モデル (LLM) の推論を高速化することは、人工知能における重 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DC, cs.LG | Distributed Speculative Inference of Large Language Models はコメントを受け付けていません

GSplit: Scaling Graph Neural Network Training on Large Graphs via Split-Parallelism

要約 グラフ ニューラル ネットワーク (GNN) は、グラフ用の機械学習モデル … 続きを読む

カテゴリー: cs.DC, cs.LG | GSplit: Scaling Graph Neural Network Training on Large Graphs via Split-Parallelism はコメントを受け付けていません

Enhancing Federated Learning with Adaptive Differential Privacy and Priority-Based Aggregation

要約 分散型機械学習 (ML) の新しい分野であるフェデレーテッド ラーニング … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG | Enhancing Federated Learning with Adaptive Differential Privacy and Priority-Based Aggregation はコメントを受け付けていません

PiPar: Pipeline Parallelism for Collaborative Machine Learning

要約 フェデレーテッド ラーニングなどの協調機械学習 (CML) 手法は、複数の … 続きを読む

カテゴリー: cs.DC, cs.LG | PiPar: Pipeline Parallelism for Collaborative Machine Learning はコメントを受け付けていません

FedBiOT: LLM Local Fine-tuning in Federated Learning without Full Model

要約 大規模言語モデル (LLM) は、適切なデータを使用して微調整した後、多く … 続きを読む

カテゴリー: cs.CL, cs.DC, cs.LG | FedBiOT: LLM Local Fine-tuning in Federated Learning without Full Model はコメントを受け付けていません