要約
非凸サンプリングは機械学習における重要な課題であり、深層学習における非凸最適化および近似確率的推論の中心となります。
その重要性にもかかわらず、理論的には多くの重要な課題が残っています。既存の保証は、(1) 通常、より望ましい最後の反復ではなく、平均化された反復に対してのみ適用されます。(2) ワッサーシュタイン距離などの変数のスケールを捉える収束メトリックが欠如しています。
(3) 主に確率的勾配ランジュバン力学などの初等スキームに適用されます。
この論文では、力学システム理論のいくつかのツールを活用することで、上記の問題を解決する新しいフレームワークを開発します。
私たちの重要な結果は、大規模なクラスの最先端のサンプリング スキームについて、ワッサーシュタイン距離での最後の反復収束を、連続時間対応物の研究に還元でき、よりよく理解できることです。
MCMC サンプリングの標準的な仮定と組み合わせると、私たちの理論は、近位、ランダム化された中間点、およびルンゲ クッタ積分器などの多くの高度なサンプリング スキームの最後の反復の Wasserstein 収束を即座に生成します。
既存の手法を超えて、私たちのフレームワークは、同じ厳格な保証を享受できるより効率的なスキームも推進します。
要約(オリジナル)
Non-convex sampling is a key challenge in machine learning, central to non-convex optimization in deep learning as well as to approximate probabilistic inference. Despite its significance, theoretically there remain many important challenges: Existing guarantees (1) typically only hold for the averaged iterates rather than the more desirable last iterates, (2) lack convergence metrics that capture the scales of the variables such as Wasserstein distances, and (3) mainly apply to elementary schemes such as stochastic gradient Langevin dynamics. In this paper, we develop a new framework that lifts the above issues by harnessing several tools from the theory of dynamical systems. Our key result is that, for a large class of state-of-the-art sampling schemes, their last-iterate convergence in Wasserstein distances can be reduced to the study of their continuous-time counterparts, which is much better understood. Coupled with standard assumptions of MCMC sampling, our theory immediately yields the last-iterate Wasserstein convergence of many advanced sampling schemes such as proximal, randomized mid-point, and Runge-Kutta integrators. Beyond existing methods, our framework also motivates more efficient schemes that enjoy the same rigorous guarantees.
arxiv情報
著者 | Mohammad Reza Karimi,Ya-Ping Hsieh,Andreas Krause |
発行日 | 2024-09-17 15:03:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google