Two Losses Are Better Than One: Faster Optimization Using a Cheaper Proxy

要約

タイトル:2つの損失は1つより良い:より安価なプロキシを使用した高速最適化

要約:この論文は、計算が難しい勾配を持つ目的関数を最小化するためのアルゴリズムを提案するものである。このアルゴリズムは、プロキシとしてアクセスしやすい関連する関数を使用して、プロキシの近似プロキシ点反復法と客観的なわずかなストキャスティック勾配を組み合わせたものである。目的関数とプロキシの差が$\delta$-スムーズである場合、このアルゴリズムは$\delta$-スムーズな目的関数に対するストキャスティック勾配降下法に一致する収束率を保証し、大幅に優れたサンプル効率が実現可能となる。このアルゴリズムには、機械学習に多数の応用があり、合成データ、物理シミュレータ、混合された公共データとプライベートデータなどを活用するための原則的な手段を提供する。

– 難しい勾配を持つ目的関数を最小化するアルゴリズム
– 計算が難しい勾配に代わるプロキシを使用する
– 近似プロキシ点反復法と客観的なわずかなストキャスティック勾配を組み合わせる
– 目的関数とプロキシの差が$\delta$-スムーズである場合、収束率を保証する
– 多数の応用がある:合成データ、物理シミュレータ、混合された公共データとプライベートデータなど

要約(オリジナル)

We present an algorithm for minimizing an objective with hard-to-compute gradients by using a related, easier-to-access function as a proxy. Our algorithm is based on approximate proximal point iterations on the proxy combined with relatively few stochastic gradients from the objective. When the difference between the objective and the proxy is $\delta$-smooth, our algorithm guarantees convergence at a rate matching stochastic gradient descent on a $\delta$-smooth objective, which can lead to substantially better sample efficiency. Our algorithm has many potential applications in machine learning, and provides a principled means of leveraging synthetic data, physics simulators, mixed public and private data, and more.

arxiv情報

著者 Blake Woodworth,Konstantin Mishchenko,Francis Bach
発行日 2023-04-03 09:30:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, math.OC パーマリンク