cs.DC」カテゴリーアーカイブ

Variance Reduction is an Antidote to Byzantines: Better Rates, Weaker Assumptions and Communication Compression as a Cherry on the Top

要約 ビザンチン堅牢性は、共同学習やフェデレーション学習への関心が高まっているた … 続きを読む

カテゴリー: cs.DC, cs.LG, math.OC | Variance Reduction is an Antidote to Byzantines: Better Rates, Weaker Assumptions and Communication Compression as a Cherry on the Top はコメントを受け付けていません

RAF: Holistic Compilation for Deep Learning Model Training

要約 ディープ ラーニングは最新のアプリケーションに普及しているため、ディープ … 続きを読む

カテゴリー: cs.DC, cs.LG, cs.PL | RAF: Holistic Compilation for Deep Learning Model Training はコメントを受け付けていません

Optimal Methods for Convex Risk Averse Distributed Optimization

要約 この論文では、ネットワークを介した凸状リスク回避最適化の通信の複雑性を研究 … 続きを読む

カテゴリー: cs.DC, cs.LG, math.OC | Optimal Methods for Convex Risk Averse Distributed Optimization はコメントを受け付けていません

NEPHELE: A Neural Platform for Highly Realistic Cloud Radiance Rendering

要約 最近、フォトリアルな自由視点合成のためのニューラルレンダリング(NR)の進 … 続きを読む

カテゴリー: cs.CV, cs.DC, cs.GR | NEPHELE: A Neural Platform for Highly Realistic Cloud Radiance Rendering はコメントを受け付けていません

Learning to Backdoor Federated Learning

要約 連合学習(FL)システムにおいて、悪意のある参加者は、メインタスクに対する … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG | Learning to Backdoor Federated Learning はコメントを受け付けていません

SUREL+: Moving from Walks to Sets for Scalable Subgraph-based Graph Representation Learning

要約 サブグラフに基づくグラフ表現学習(SGRL)は、モデルの表現力と一般化能力 … 続きを読む

カテゴリー: cs.DB, cs.DC, cs.LG | SUREL+: Moving from Walks to Sets for Scalable Subgraph-based Graph Representation Learning はコメントを受け付けていません

Boosting Distributed Full-graph GNN Training with Asynchronous One-bit Communication

要約 大規模なグラフでのグラフ ニューラル ネットワーク (GNN) のトレーニ … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG | Boosting Distributed Full-graph GNN Training with Asynchronous One-bit Communication はコメントを受け付けていません

AdaSAM: Boosting Sharpness-Aware Minimization with Adaptive Learning Rate and Momentum for Training Deep Neural Networks

要約 シャープネス認識最小化 (SAM) オプティマイザーは、追加の摂動ステップ … 続きを読む

カテゴリー: cs.DC, cs.LG, math.OC | AdaSAM: Boosting Sharpness-Aware Minimization with Adaptive Learning Rate and Momentum for Training Deep Neural Networks はコメントを受け付けていません

Architecting Peer-to-Peer Serverless Distributed Machine Learning Training for Improved Fault Tolerance

要約 分散型機械学習とは、ノードと呼ばれる複数のコンピューターまたはデバイスでモ … 続きを読む

カテゴリー: cs.DC, cs.LG | Architecting Peer-to-Peer Serverless Distributed Machine Learning Training for Improved Fault Tolerance はコメントを受け付けていません

Proof-of-Contribution-Based Design for Collaborative Machine Learning on Blockchain

要約 ローカルのプライベート データと関心のあるデータ所有者 (つまりトレーナー … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG | Proof-of-Contribution-Based Design for Collaborative Machine Learning on Blockchain はコメントを受け付けていません