cs.DC」カテゴリーアーカイブ

Holmes: Towards Distributed Training Across Clusters with Heterogeneous NIC Environment

要約 GPT-3、OPT、LLaMA などの大規模言語モデル (LLM) は、幅 … 続きを読む

カテゴリー: cs.CL, cs.DC | Holmes: Towards Distributed Training Across Clusters with Heterogeneous NIC Environment はコメントを受け付けていません

Exploring Error Bits for Memory Failure Prediction: An In-Depth Correlative Study

要約 大規模なデータセンターでは、メモリ障害がサーバー クラッシュの一般的な原因 … 続きを読む

カテゴリー: cs.AI, cs.AR, cs.DC, cs.LG | Exploring Error Bits for Memory Failure Prediction: An In-Depth Correlative Study はコメントを受け付けていません

Communication-Efficient Federated Optimization over Semi-Decentralized Networks

要約 大規模なフェデレーションおよび分散型学習では、通信効率が最も困難なボトルネ … 続きを読む

カテゴリー: cs.DC, cs.LG, math.OC | Communication-Efficient Federated Optimization over Semi-Decentralized Networks はコメントを受け付けていません

VREM-FL: Mobility-Aware Computation-Scheduling Co-Design for Vehicular Federated Learning

要約 支援運転や自動運転は急速に勢いを増しており、間もなく現実になるでしょう。 … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG, cs.SY, eess.SY | VREM-FL: Mobility-Aware Computation-Scheduling Co-Design for Vehicular Federated Learning はコメントを受け付けていません

FedAgg: Adaptive Federated Learning with Aggregated Gradients

要約 フェデレーテッド ラーニング (FL) は、分散モデル トレーニングの新た … 続きを読む

カテゴリー: cs.DC, cs.LG | FedAgg: Adaptive Federated Learning with Aggregated Gradients はコメントを受け付けていません

FedECA: A Federated External Control Arm Method for Causal Inference with Time-To-Event Data in Distributed Settings

要約 外部対照群 (ECA) は、実験薬の初期臨床開発に情報を提供し、非ランダム … 続きを読む

カテゴリー: cs.DC, cs.LG, stat.ME | FedECA: A Federated External Control Arm Method for Causal Inference with Time-To-Event Data in Distributed Settings はコメントを受け付けていません

Equilibrium in the Computing Continuum through Active Inference

要約 Computing Continuum (CC) システムは、各計算層の複 … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG, cs.PF, cs.SY, eess.SY | Equilibrium in the Computing Continuum through Active Inference はコメントを受け付けていません

Scheduling and Communication Schemes for Decentralized Federated Learning

要約 フェデレーテッド ラーニング (FL) は、多数のクライアントが中央サーバ … 続きを読む

カテゴリー: cs.DC, cs.LG | Scheduling and Communication Schemes for Decentralized Federated Learning はコメントを受け付けていません

SpotServe: Serving Generative Large Language Models on Preemptible Instances

要約 生成大規模言語モデル (LLM) には高い計算量とメモリ要件があるため、安 … 続きを読む

カテゴリー: cs.CL, cs.DC, cs.LG | SpotServe: Serving Generative Large Language Models on Preemptible Instances はコメントを受け付けていません

MAST: Model-Agnostic Sparsified Training

要約 ブラックボックス関数として機械学習モデルの損失を最小限に抑える従来の方法と … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG, math.OC | MAST: Model-Agnostic Sparsified Training はコメントを受け付けていません