cs.DC」カテゴリーアーカイブ

GNNBENCH: Fair and Productive Benchmarking for Single-GPU GNN System

要約 私たちは、標準化されたベンチマークの欠如により、GNN システムの設計と評 … 続きを読む

カテゴリー: cs.DC, cs.LG | GNNBENCH: Fair and Productive Benchmarking for Single-GPU GNN System はコメントを受け付けていません

Approximate Gradient Coding for Privacy-Flexible Federated Learning with Non-IID Data

要約 本研究では、連合学習における非IIDデータとはぐれ者/脱落者の課題に焦点を … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.IT, cs.LG, math.IT, stat.ML | Approximate Gradient Coding for Privacy-Flexible Federated Learning with Non-IID Data はコメントを受け付けていません

Global and Local Prompts Cooperation via Optimal Transport for Federated Learning

要約 事前学習された視覚言語モデルにおけるプロンプト学習は、様々な下流タスクにお … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG | Global and Local Prompts Cooperation via Optimal Transport for Federated Learning はコメントを受け付けていません

Privacy-Aware Semantic Cache for Large Language Models

要約 ChatGPTやLlama2のような大規模言語モデル(LLM)は、自然言語 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.DC, cs.LG, I.2.7 | Privacy-Aware Semantic Cache for Large Language Models はコメントを受け付けていません

FedSN: A Novel Federated Learning Framework over LEO Satellite Networks

要約 最近、SpaceX などの民間企業によって、多数の低地球軌道 (LEO) … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG | FedSN: A Novel Federated Learning Framework over LEO Satellite Networks はコメントを受け付けていません

Iterative Sketching for Secure Coded Regression

要約 線形回帰は教師あり機械学習における基本的かつ原始的な問題であり、疫学から金 … 続きを読む

カテゴリー: 65B99, 68P20, 68P25, 68P27, 68P30, 94-10, 94A11, 94A16, 94B60, cs.CR, cs.DC, cs.IT, cs.LG, cs.NA, math.IT, math.NA | Iterative Sketching for Secure Coded Regression はコメントを受け付けていません

Near-Optimal Resilient Aggregation Rules for Distributed Learning Using 1-Center and 1-Mean Clustering with Outliers

要約 ビザンチン機械学習は、大規模な分散学習システムで発生する可能性のある予測不 … 続きを読む

カテゴリー: cs.DC, cs.LG | Near-Optimal Resilient Aggregation Rules for Distributed Learning Using 1-Center and 1-Mean Clustering with Outliers はコメントを受け付けていません

DISTFLASHATTN: Distributed Memory-efficient Attention for Long-context LLMs Training

要約 FlashAttendant (Dao、2023) は、単一 GPU での … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG | DISTFLASHATTN: Distributed Memory-efficient Attention for Long-context LLMs Training はコメントを受け付けていません

TACOS: Topology-Aware Collective Algorithm Synthesizer for Distributed Machine Learning

要約 人工知能、特に大規模な言語モデルの急増により、大規模な機械学習トレーニング … 続きを読む

カテゴリー: cs.DC, cs.LG | TACOS: Topology-Aware Collective Algorithm Synthesizer for Distributed Machine Learning はコメントを受け付けていません

Towards Greener LLMs: Bringing Energy-Efficiency to the Forefront of LLM Inference

要約 最新の大規模言語モデル (LLM) が業界全体で広く使用されているため、こ … 続きを読む

カテゴリー: cs.AI, cs.AR, cs.DC, I.2 | Towards Greener LLMs: Bringing Energy-Efficiency to the Forefront of LLM Inference はコメントを受け付けていません