Understanding Optimization of Deep Learning

要約

この記事では、通常、それぞれモデル表現能力の低下とトレーニングの不安定性につながる、勾配消失と勾配爆発の課題に主に焦点を当て、深層学習における最適化について包括的に理解を提供します。
私たちは、勾配流の改善やネットワークのリプシッツ定数への制約の課しなど、いくつかの戦略的手段を通じてこれら 2 つの課題を分析します。
現在の最適化手法を理解しやすくするために、それらを明示的最適化と暗黙的最適化の 2 つのクラスに分類します。
明示的な最適化方法には、重み、勾配、学習率、重み減衰などのオプティマイザー パラメーターの直接操作が含まれます。
対照的に、暗黙的な最適化手法は、残留ショートカット、正規化手法、アテンション メカニズム、アクティブ化などのモジュールを強化することで、ネットワーク全体の状況を改善することに重点を置いています。
この記事では、これら 2 つの最適化クラスの詳細な分析を提供し、広く使用されている多くの深層学習モジュールのヤコビアン行列とリプシッツ定数を徹底的に調査し、既存の問題と潜在的な改善点を明らかにします。
さらに、理論的な議論を実証するために一連の分析実験も実施します。
この記事は、新しいオプティマイザやネットワークを提案することを目的としたものではありません。
むしろ、私たちの目的は、深層学習における最適化の包括的な理解を提示することです。
この記事が読者がこの分野についてより深い洞察を得るのに役立ち、より堅牢で効率的で高性能なモデルの開発を促進することを願っています。

要約(オリジナル)

This article provides a comprehensive understanding of optimization in deep learning, with a primary focus on the challenges of gradient vanishing and gradient exploding, which normally lead to diminished model representational ability and training instability, respectively. We analyze these two challenges through several strategic measures, including the improvement of gradient flow and the imposition of constraints on a network’s Lipschitz constant. To help understand the current optimization methodologies, we categorize them into two classes: explicit optimization and implicit optimization. Explicit optimization methods involve direct manipulation of optimizer parameters, including weight, gradient, learning rate, and weight decay. Implicit optimization methods, by contrast, focus on improving the overall landscape of a network by enhancing its modules, such as residual shortcuts, normalization methods, attention mechanisms, and activations. In this article, we provide an in-depth analysis of these two optimization classes and undertake a thorough examination of the Jacobian matrices and the Lipschitz constants of many widely used deep learning modules, highlighting existing issues as well as potential improvements. Moreover, we also conduct a series of analytical experiments to substantiate our theoretical discussions. This article does not aim to propose a new optimizer or network. Rather, our intention is to present a comprehensive understanding of optimization in deep learning. We hope that this article will assist readers in gaining a deeper insight in this field and encourages the development of more robust, efficient, and high-performing models.

arxiv情報

著者 Xianbiao Qi,Jianan Wang,Lei Zhang
発行日 2023-06-15 17:59:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, math.OC, stat.ML パーマリンク