Nonsmooth Implicit Differentiation: Deterministic and Stochastic Convergence Rates

要約

パラメトリック非微分不可能収縮マップの固定小数点の導関数を効率的に計算する問題を研究します。
この問題は、ハイパーパラメータの最適化、メタ学習、データポイズニング攻撃など、機械学習に幅広く応用されています。
反復微分 (ITD) と近似陰的微分 (AID) という 2 つの一般的なアプローチを分析します。
スムーズではない設定の背後にある重要な課題は、チェーン ルールがもはや成り立たないことです。
ボルトらによる最近の研究に基づいて構築されています。
(2022) は、微分不可能な ITD の線形収束を証明しました。どちらも決定論的なケースで、ITD の線形レートが改善され、AID のレートがわずかに向上しました。
さらに、固定点が外側マップと内側マップの合成として定義されている場合に、陰的導関数を計算するための新しい確率的手法である NSID を導入します。これは、確率的不偏推定器を通じてのみアクセス可能です。
スムーズな設定で利用可能な最良のレートを含む、NSID の収束のためのレートを確立します。
私たちの分析を裏付ける実験例を示します。

要約(オリジナル)

We study the problem of efficiently computing the derivative of the fixed-point of a parametric nondifferentiable contraction map. This problem has wide applications in machine learning, including hyperparameter optimization, meta-learning and data poisoning attacks. We analyze two popular approaches: iterative differentiation (ITD) and approximate implicit differentiation (AID). A key challenge behind the nonsmooth setting is that the chain rule does not hold anymore. Building upon the recent work by Bolte et al. (2022), who proved linear convergence of nondifferentiable ITD, we provide an improved linear rate for ITD and a slightly better rate for AID, both in the deterministic case. We further introduce NSID, a new stochastic method to compute the implicit derivative when the fixed point is defined as the composition of an outer map and an inner map which is accessible only through a stochastic unbiased estimator. We establish rates for the convergence of NSID, encompassing the best available rates in the smooth setting. We present illustrative experiments confirming our analysis.

arxiv情報

著者 Riccardo Grazzi,Massimiliano Pontil,Saverio Salzo
発行日 2024-03-28 17:56:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC, stat.ML パーマリンク