要約
ディープ ニューラル ネットワークのトレーニング プロセスは、多大な時間が必要となり、それに伴うコストがかかるという特徴があります。
研究者はこの分野でかなりの進歩を遂げてきましたが、リソースの制約により、さらなる研究がまだ必要です。
この研究では、ResNet50、Vision Transformer (ViT)、EfficientNet などの 3 つの最先端モデルに特に重点を置き、ディープ ニューラル ネットワーク (DNN) のトレーニング プロセスを迅速化する革新的なアプローチを検証します。
この研究では、パフォーマンスを最適化し、トレーニング手順を高速化するために、勾配累積 (GA)、自動混合精度 (AMP)、ピン メモリ (PM) などの高度な方法論を利用しています。
この研究では、前述の DNN モデルに対するこれらの方法論の効果を検証し、トレーニング率と計算効率に関してその有効性を評価しています。
この研究は、戦略的アプローチとして GA を組み込むことの有効性を示しており、その結果、トレーニングに必要な期間が顕著に短縮されました。
これにより、モデルをより速いペースで収束させることができます。
AMP を使用すると、モデルの正確性を維持しながら、低精度の演算によってもたらされる利点を利用して計算速度が向上します。
さらに、この研究では、中央処理装置とグラフィックス処理装置間のデータ伝送の効率を高める戦略としてピン メモリの適用を調査し、それによって全体的なパフォーマンスを向上させる有望な機会を提供します。
実験結果は、これらの洗練された方法論を組み合わせることで DNN のトレーニングが大幅に加速され、深層学習プロセスの有効性を向上させようとしている専門家に重要な洞察を提供することを示しています。
要約(オリジナル)
The process of training a deep neural network is characterized by significant time requirements and associated costs. Although researchers have made considerable progress in this area, further work is still required due to resource constraints. This study examines innovative approaches to expedite the training process of deep neural networks (DNN), with specific emphasis on three state-of-the-art models such as ResNet50, Vision Transformer (ViT), and EfficientNet. The research utilizes sophisticated methodologies, including Gradient Accumulation (GA), Automatic Mixed Precision (AMP), and Pin Memory (PM), in order to optimize performance and accelerate the training procedure. The study examines the effects of these methodologies on the DNN models discussed earlier, assessing their efficacy with regard to training rate and computational efficacy. The study showcases the efficacy of including GA as a strategic approach, resulting in a noteworthy decrease in the duration required for training. This enables the models to converge at a faster pace. The utilization of AMP enhances the speed of computations by taking advantage of the advantages offered by lower precision arithmetic while maintaining the correctness of the model. Furthermore, this study investigates the application of Pin Memory as a strategy to enhance the efficiency of data transmission between the central processing unit and the graphics processing unit, thereby offering a promising opportunity for enhancing overall performance. The experimental findings demonstrate that the combination of these sophisticated methodologies significantly accelerates the training of DNNs, offering vital insights for experts seeking to improve the effectiveness of deep learning processes.
arxiv情報
著者 | Sahil Nokhwal,Priyanka Chilakalapudi,Preeti Donekal,Manoj Chandrasekharan,Suman Nokhwal,Ram Swaroop,Raj Bala,Saurabh Pahune,Ankit Chaudhary |
発行日 | 2023-12-15 18:43:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google