-
最近の投稿
- Gaze-based dual resolution deep imitation learning for high-precision dexterous robot manipulation
- Transformer-based deep imitation learning for dual-arm robot manipulation
- Goal-conditioned dual-action imitation learning for dexterous dual-arm robot manipulation
- Motion Priors Reimagined: Adapting Flat-Terrain Skills for Complex Quadruped Mobility
- Event-based Reconfiguration Control for Time-varying Formation of Robot Swarms in Narrow Spaces
-
最近のコメント
表示できるコメントはありません。 cs.AI (38545) cs.CL (29129) cs.CV (44032) cs.HC (2938) cs.LG (43457) cs.RO (22973) cs.SY (3516) eess.IV (5086) eess.SY (3508) stat.ML (5650)
「cs.DC」カテゴリーアーカイブ
A Federated Splitting Framework for LLMs: Security, Efficiency, and Adaptability
要約 プライベートデータは通常、パブリックデータよりも高品質であり、LLMを改善 … 続きを読む
Resource Heterogeneity-Aware and Utilization-Enhanced Scheduling for Deep Learning Clusters
要約 GPUやTPUなどのアクセラレータを備えた強力なクラスターをトレーニングす … 続きを読む
KunServe: Efficient Parameter-centric Memory Management for LLM Serving
要約 GPUのクラスターを使用してLLMSを提供することは最近一般的であり、サー … 続きを読む
Digital Twins in the Cloud: A Modular, Scalable and Interoperable Framework for Accelerating Verification and Validation of Autonomous Driving Solutions
要約 自動運転車(AVS)の検証と検証(V&V)には、通常、さまざまな動作環境に … 続きを読む
Occult: Optimizing Collaborative Communication across Experts for Accelerated Parallel MoE Training and Inference
要約 混合混合物(MOE)アーキテクチャは、専門家の並列性を備えた印象的な計算効 … 続きを読む
MegaScale-MoE: Large-Scale Communication-Efficient Training of Mixture-of-Experts Models in Production
要約 大規模な混合物(MOE)モデルの効率的なトレーニングに合わせた生産システム … 続きを読む
MoE-CAP: Benchmarking Cost, Accuracy and Performance of Sparse Mixture-of-Experts Systems
要約 スパースの混合物(MOE)アーキテクチャは、大規模な言語モデル(LLM)を … 続きを読む
MegaScale-MoE: Large-Scale Communication-Efficient Training of Mixture-of-Experts Models in Production
要約 大規模な混合物(MOE)モデルの効率的なトレーニングに合わせた生産システム … 続きを読む
Scaling Multi Agent Reinforcement Learning for Underwater Acoustic Tracking via Autonomous Vehicles
要約 自動運転車(AV)は、水中追跡などの科学ミッションに費用対効果の高いソリュ … 続きを読む