ScaDLES: Scalable Deep Learning over Streaming data at the Edge

要約

分散ディープラーニング (DDL) トレーニング システムは、均質なコンピューティング リソース、高いネットワーク帯域幅、十分なメモリとストレージ、すべてのノードにわたる独立した同一分散 (IID) データを前提としたクラウドおよびデータセンター環境向けに設計されています。
ただし、これらの仮定は、特にオンライン方法でストリーミング データでニューラル ネットワークをトレーニングする場合には、必ずしもエッジには当てはまりません。
エッジ上のコンピューティングには、システムと統計的不均一性の両方の問題があります。
システムの不均一性は、各デバイスに固有のコンピューティング リソースと帯域幅の違いに起因しますが、統計的な不均一性は、エッジ上の不均衡で偏ったデータに起因します。
デバイス間でストリーミング レートが異なることも、ストリーミング データを処理する際の不均一性の原因となる可能性があります。
ストリーミング レートがトレーニング バッチ サイズよりも低い場合、デバイスは確率的勾配降下法 (SGD) の 1 回の反復を実行する前に、十分なサンプルがストリーミングされるまで待機する必要があります。
したがって、低ボリュームのストリームは、同期トレーニングにおいて高ボリュームのストリームを使用するデバイスの速度を低下させるストラグラーのように機能します。
一方、ストリーミング レートが高すぎてデバイスがラインレートでトレーニングできない場合、データはバッファに急速に蓄積される可能性があります。
このペーパーでは、限られた帯域幅と非 IID データでのトレーニングの課題にも対処しながら、オンライン形式でエッジでストリーミング データを効率的にトレーニングするための ScaDLES を紹介します。
我々は、ScaDLES が従来の分散型 SGD と比較して最大 3.29 倍高速に収束することを経験的に示しています。

要約(オリジナル)

Distributed deep learning (DDL) training systems are designed for cloud and data-center environments that assumes homogeneous compute resources, high network bandwidth, sufficient memory and storage, as well as independent and identically distributed (IID) data across all nodes. However, these assumptions don’t necessarily apply on the edge, especially when training neural networks on streaming data in an online manner. Computing on the edge suffers from both systems and statistical heterogeneity. Systems heterogeneity is attributed to differences in compute resources and bandwidth specific to each device, while statistical heterogeneity comes from unbalanced and skewed data on the edge. Different streaming-rates among devices can be another source of heterogeneity when dealing with streaming data. If the streaming rate is lower than training batch-size, device needs to wait until enough samples have streamed in before performing a single iteration of stochastic gradient descent (SGD). Thus, low-volume streams act like stragglers slowing down devices with high-volume streams in synchronous training. On the other hand, data can accumulate quickly in the buffer if the streaming rate is too high and the devices can’t train at line-rate. In this paper, we introduce ScaDLES to efficiently train on streaming data at the edge in an online fashion, while also addressing the challenges of limited bandwidth and training with non-IID data. We empirically show that ScaDLES converges up to 3.29 times faster compared to conventional distributed SGD.

arxiv情報

著者 Sahil Tyagi,Martin Swany
発行日 2024-01-29 18:10:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.LG, cs.NI パーマリンク