要約
非コンベックスコンケーブMIN-MAXの問題は、多くの機械学習アプリケーションで発生します。これには、非コンベックス関数のセットのポイントワイズ最大値と、ニューラルネットワークの堅牢な敵対的トレーニングが含まれます。
この問題を解決するための一般的なアプローチは、勾配降下(GDA)アルゴリズムであり、残念ながら非粘性の場合に振動を示すことができます。
このホワイトペーパーでは、GDAと組み合わせて振動を安定させ、固定ソリューションとの収束を確保できる「スムージング」スキームを紹介します。
安定化されたGDAアルゴリズムが、非凸関数の有限コレクションのポイントワイズ最大コレクションを最小化するために$ O(1/\ epsilon^2)$反復の複雑さを達成できることを証明します。
さらに、Smoothed GDAアルゴリズムは、一般的な非コンベックスコンケーブの問題に対して$ O(1/\ epsilon^4)$反復の複雑さを実現します。
この安定化されたGDAアルゴリズムの拡張は、マルチブロックケースへの拡張が表示されます。
私たちの知る限り、これは、継続的でない問題のクラスで$ o(1/\ epsilon^2)$を達成した最初のアルゴリズムです。
堅牢なトレーニングに関する安定化されたGDAアルゴリズムの実用的な効率を示します。
要約(オリジナル)
Nonconvex-concave min-max problem arises in many machine learning applications including minimizing a pointwise maximum of a set of nonconvex functions and robust adversarial training of neural networks. A popular approach to solve this problem is the gradient descent-ascent (GDA) algorithm which unfortunately can exhibit oscillation in case of nonconvexity. In this paper, we introduce a ‘smoothing’ scheme which can be combined with GDA to stabilize the oscillation and ensure convergence to a stationary solution. We prove that the stabilized GDA algorithm can achieve an $O(1/\epsilon^2)$ iteration complexity for minimizing the pointwise maximum of a finite collection of nonconvex functions. Moreover, the smoothed GDA algorithm achieves an $O(1/\epsilon^4)$ iteration complexity for general nonconvex-concave problems. Extensions of this stabilized GDA algorithm to multi-block cases are presented. To the best of our knowledge, this is the first algorithm to achieve $O(1/\epsilon^2)$ for a class of nonconvex-concave problem. We illustrate the practical efficiency of the stabilized GDA algorithm on robust training.
arxiv情報
著者 | Jiawei Zhang,Peijun Xiao,Ruoyu Sun,Zhi-Quan Luo |
発行日 | 2025-03-20 15:46:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google