要約
タイトル:2つの損失は1つより良い:より安価なプロキシを使用した高速最適化
要約:この論文は、計算が難しい勾配を持つ目的関数を最小化するためのアルゴリズムを提案するものである。このアルゴリズムは、プロキシとしてアクセスしやすい関連する関数を使用して、プロキシの近似プロキシ点反復法と客観的なわずかなストキャスティック勾配を組み合わせたものである。目的関数とプロキシの差が$\delta$-スムーズである場合、このアルゴリズムは$\delta$-スムーズな目的関数に対するストキャスティック勾配降下法に一致する収束率を保証し、大幅に優れたサンプル効率が実現可能となる。このアルゴリズムには、機械学習に多数の応用があり、合成データ、物理シミュレータ、混合された公共データとプライベートデータなどを活用するための原則的な手段を提供する。
– 難しい勾配を持つ目的関数を最小化するアルゴリズム
– 計算が難しい勾配に代わるプロキシを使用する
– 近似プロキシ点反復法と客観的なわずかなストキャスティック勾配を組み合わせる
– 目的関数とプロキシの差が$\delta$-スムーズである場合、収束率を保証する
– 多数の応用がある:合成データ、物理シミュレータ、混合された公共データとプライベートデータなど
要約(オリジナル)
We present an algorithm for minimizing an objective with hard-to-compute gradients by using a related, easier-to-access function as a proxy. Our algorithm is based on approximate proximal point iterations on the proxy combined with relatively few stochastic gradients from the objective. When the difference between the objective and the proxy is $\delta$-smooth, our algorithm guarantees convergence at a rate matching stochastic gradient descent on a $\delta$-smooth objective, which can lead to substantially better sample efficiency. Our algorithm has many potential applications in machine learning, and provides a principled means of leveraging synthetic data, physics simulators, mixed public and private data, and more.
arxiv情報
| 著者 | Blake Woodworth,Konstantin Mishchenko,Francis Bach |
| 発行日 | 2023-04-03 09:30:12+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI