要約
リプシッツ定数の制御はニューラル ネットワークのトレーニングの安定性、一般化、堅牢性に大きな影響を与えるため、この値の推定は今日では真の科学的課題となっています。
この論文では、循環行列理論とべき乗反復の新しい代替法を使用した、畳み込み層のスペクトル ノルムの正確で高速かつ微分可能な上限を紹介します。
グラム反復と呼ばれる私たちのアプローチは超線形収束を示します。
まず、一連の包括的な実験を通じて、私たちのアプローチが精度、計算コスト、スケーラビリティの点で他の最先端の方法よりも優れていることを示します。
その後、畳み込みニューラル ネットワークのリプシッツ正則化に非常に効果的であることが証明され、同時アプローチと競合する結果が得られます。
要約(オリジナル)
Since the control of the Lipschitz constant has a great impact on the training stability, generalization, and robustness of neural networks, the estimation of this value is nowadays a real scientific challenge. In this paper we introduce a precise, fast, and differentiable upper bound for the spectral norm of convolutional layers using circulant matrix theory and a new alternative to the Power iteration. Called the Gram iteration, our approach exhibits a superlinear convergence. First, we show through a comprehensive set of experiments that our approach outperforms other state-of-the-art methods in terms of precision, computational cost, and scalability. Then, it proves highly effective for the Lipschitz regularization of convolutional neural networks, with competitive results against concurrent approaches.
arxiv情報
著者 | Blaise Delattre,Quentin Barthélemy,Alexandre Araujo,Alexandre Allauzen |
発行日 | 2023-05-25 15:32:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google