Zero Grads Ever Given: Learning Local Surrogate Losses for Non-Differentiable Graphics

要約

勾配ベースの最適化は現在、グラフィックス全体で広く普及していますが、残念ながら未定義または勾配がゼロの問題には適用できません。
この問題を回避するには、損失関数を、同様の最小値を持つが微分可能な「サロゲート」に手動で置き換えることができます。
私たちが提案するフレームワークである ZeroGrads は、目的関数のニューラル近似であるサロゲートを学習することでこのプロセスを自動化し、これを任意のブラックボックス グラフィックス パイプラインを通じて微分するために使用できます。
私たちは、目標を積極的に平滑化したバージョンで代理母をトレーニングし、局所性を奨励して、代理母の能力を現在のトレーニング エピソードで重要なものに集中させます。
フィッティングはパラメータの最適化と並行してオンラインで実行され、事前に計算されたデータや事前にトレーニングされたモデルを使用せずに自己監視されます。
目的のサンプリングにはコストがかかるため (完全なレンダリングまたはシミュレーターの実行が必要)、ほとんどのオーバーヘッドで扱いやすい実行時間と競争力のあるパフォーマンスを可能にする効率的なサンプリング スキームを考案します。
レンダリングにおける可視性、手続き型モデリングにおける離散パラメータ空間、物理駆動型アニメーションにおける最適制御など、グラフィックスにおける多様な非凸、微分不可能なブラックボックス問題の最適化を実証します。
より伝統的なアルゴリズムとは対照的に、私たちのアプローチは高次元までうまく拡張でき、最大 35,000 の相互リンクされた変数の問題でそれを実証します。

要約(オリジナル)

Gradient-based optimization is now ubiquitous across graphics, but unfortunately can not be applied to problems with undefined or zero gradients. To circumvent this issue, the loss function can be manually replaced by a ‘surrogate’ that has similar minima but is differentiable. Our proposed framework, ZeroGrads, automates this process by learning a neural approximation of the objective function, the surrogate, which in turn can be used to differentiate through arbitrary black-box graphics pipelines. We train the surrogate on an actively smoothed version of the objective and encourage locality, focusing the surrogate’s capacity on what matters at the current training episode. The fitting is performed online, alongside the parameter optimization, and self-supervised, without pre-computed data or pre-trained models. As sampling the objective is expensive (it requires a full rendering or simulator run), we devise an efficient sampling scheme that allows for tractable run-times and competitive performance at little overhead. We demonstrate optimizing diverse non-convex, non-differentiable black-box problems in graphics, such as visibility in rendering, discrete parameter spaces in procedural modelling or optimal control in physics-driven animation. In contrast to more traditional algorithms, our approach scales well to higher dimensions, which we demonstrate on problems with up to 35k interlinked variables.

arxiv情報

著者 Michael Fischer,Tobias Ritschel
発行日 2023-08-10 17:57:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR, cs.LG パーマリンク