cs.DC」カテゴリーアーカイブ

Distributed Online Rollout for Multivehicle Routing in Unmapped Environments

要約 この研究では、よく知られた複数の車両の経路指定問題の一般化を検討します。ネ … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.MA | Distributed Online Rollout for Multivehicle Routing in Unmapped Environments はコメントを受け付けていません

Survey of Federated Learning Models for Spatial-Temporal Mobility Applications

要約 フェデレーテッド ラーニングには、トレーニング データがローカルに保たれる … 続きを読む

カテゴリー: A.1, cs.AI, cs.DC, cs.IR, cs.LG, cs.SI | Survey of Federated Learning Models for Spatial-Temporal Mobility Applications はコメントを受け付けていません

Hybrid Retrieval-Augmented Generation for Real-time Composition Assistance

要約 検索補強は、追加のコンテキストを組み込むことによって、従来の言語モデルの性 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DC | Hybrid Retrieval-Augmented Generation for Real-time Composition Assistance はコメントを受け付けていません

Privacy-Preserving Distributed Learning for Residential Short-Term Load Forecasting

要約 電力システムの領域では、負荷予測アプリケーションへの住宅ユーザーの関与が増 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.DC, cs.LG, cs.MA, cs.SY, eess.SY | Privacy-Preserving Distributed Learning for Residential Short-Term Load Forecasting はコメントを受け付けていません

The Power of Populations in Decentralized Bandits

要約 私たちは、分散型 GOSSIP モデルにおける協力的なマルチエージェント … 続きを読む

カテゴリー: cs.DC, cs.DS, cs.LG | The Power of Populations in Decentralized Bandits はコメントを受け付けていません

FedPDD: A Privacy-preserving Double Distillation Framework for Cross-silo Federated Recommendation

要約 クロスプラットフォーム レコメンデーションは、異なるプラットフォームから異 … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.IR, cs.LG | FedPDD: A Privacy-preserving Double Distillation Framework for Cross-silo Federated Recommendation はコメントを受け付けていません

TurboSVM-FL: Boosting Federated Learning through SVM Aggregation for Lazy Clients

要約 フェデレーテッド ラーニングは、近年大きな勢いを増している分散型協調機械学 … 続きを読む

カテゴリー: cs.DC, cs.LG | TurboSVM-FL: Boosting Federated Learning through SVM Aggregation for Lazy Clients はコメントを受け付けていません

ScaDLES: Scalable Deep Learning over Streaming data at the Edge

要約 分散ディープラーニング (DDL) トレーニング システムは、均質なコンピ … 続きを読む

カテゴリー: cs.DC, cs.LG, cs.NI | ScaDLES: Scalable Deep Learning over Streaming data at the Edge はコメントを受け付けていません

CO2: Efficient Distributed Training with Full Communication-Computation Overlap

要約 大規模言語モデルの根本的な成功は、大規模な分散トレーニング技術の効果的な実 … 続きを読む

カテゴリー: cs.CL, cs.DC | CO2: Efficient Distributed Training with Full Communication-Computation Overlap はコメントを受け付けていません

Towards Building the Federated GPT: Federated Instruction Tuning

要約 「命令調整された」生成大規模言語モデル (LLM) は、新しいタスクに一般 … 続きを読む

カテゴリー: cs.CL, cs.DC, cs.SY, eess.SY | Towards Building the Federated GPT: Federated Instruction Tuning はコメントを受け付けていません