An Automatic Learning Rate Schedule Algorithm for Achieving Faster Convergence and Steeper Descent

要約

デルタ バー デルタ アルゴリズムは、現在と以前の重み更新の差に基づいて学習率を動的にスケジュールすることで、最適化におけるトレーニング プロセスの収束速度を向上させる学習率適応手法として認識されています。
このアルゴリズムは、Adam や SGD などの他の最先端のアルゴリズムと比較した場合、完全なデータの最適化において強力な競争力を示していますが、ノイズの多い勾配の存在により、ミニバッチ最適化シナリオでは収束の問題が発生する可能性があります。
この研究では、現実世界のニューラル ネットワーク最適化におけるデルタバーデルタ アルゴリズムの収束動作を徹底的に調査します。
潜在的な収束の課題に対処するために、RDBD (Regrettable Delta-Bar-Delta) と呼ばれる新しいアプローチを提案します。
私たちのアプローチにより、偏った学習率調整の迅速な修正が可能になり、最適化プロセスの収束が保証されます。
さらに、RDBD があらゆる最適化アルゴリズムとシームレスに統合でき、収束速度が大幅に向上することを実証します。
広範な実験と評価を実施することにより、私たちが提案する RDBD アプローチの有効性と効率性を検証します。
この結果は、ミニバッチ最適化における収束の問題を克服する能力と、さまざまな最適化アルゴリズムの収束速度を向上させる可能性を示しています。
この研究は、ニューラル ネットワーク トレーニングにおける最適化技術の進歩に貢献し、より迅速な収束と改善された最適化結果を達成するための信頼できる自動学習率スケジューラーを実践者に提供します。

要約(オリジナル)

The delta-bar-delta algorithm is recognized as a learning rate adaptation technique that enhances the convergence speed of the training process in optimization by dynamically scheduling the learning rate based on the difference between the current and previous weight updates. While this algorithm has demonstrated strong competitiveness in full data optimization when compared to other state-of-the-art algorithms like Adam and SGD, it may encounter convergence issues in mini-batch optimization scenarios due to the presence of noisy gradients. In this study, we thoroughly investigate the convergence behavior of the delta-bar-delta algorithm in real-world neural network optimization. To address any potential convergence challenges, we propose a novel approach called RDBD (Regrettable Delta-Bar-Delta). Our approach allows for prompt correction of biased learning rate adjustments and ensures the convergence of the optimization process. Furthermore, we demonstrate that RDBD can be seamlessly integrated with any optimization algorithm and significantly improve the convergence speed. By conducting extensive experiments and evaluations, we validate the effectiveness and efficiency of our proposed RDBD approach. The results showcase its capability to overcome convergence issues in mini-batch optimization and its potential to enhance the convergence speed of various optimization algorithms. This research contributes to the advancement of optimization techniques in neural network training, providing practitioners with a reliable automatic learning rate scheduler for achieving faster convergence and improved optimization outcomes.

arxiv情報

著者 Zhao Song,Chiwun Yang
発行日 2023-10-17 14:15:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク