Stochastic Optimization with Optimal Importance Sampling

要約

重要度サンプリング(Importance Sampling: IS)は、モンテカルロ法の効率を向上させるために広く使用されている分散削減手法であり、特に希少事象シミュレーションやその関連アプリケーションにおいて有効である。その強力さにもかかわらず、ISの性能はしばしば提案分布の選択に非常に敏感であり、確率的キャリブレーション技術を必要とすることが多い。ISの設計と解析は推定設定において広く研究されているが、確率最適化におけるISの適用には独自の課題がある。この相互依存性は、決定反復の収束分析とISスキームの効率性の両方を複雑にする。本論文では、決定変数とIS分布を時間スケールで分離することなく共同で更新する反復勾配ベースのアルゴリズムを提案する。本手法は、漸近分散を可能な限り小さくし、目的の凸性とIS分布族に関する穏やかな仮定の下で大域的収束を保証する。さらに、Nesterovの双対平均法の最近の変形を取り入れることで、線形制約下でもこれらの特性が保たれることを示す。

要約(オリジナル)

Importance Sampling (IS) is a widely used variance reduction technique for enhancing the efficiency of Monte Carlo methods, particularly in rare-event simulation and related applications. Despite its power, the performance of IS is often highly sensitive to the choice of the proposal distribution and frequently requires stochastic calibration techniques. While the design and analysis of IS have been extensively studied in estimation settings, applying IS within stochastic optimization introduces a unique challenge: the decision and the IS distribution are mutually dependent, creating a circular optimization structure. This interdependence complicates both the analysis of convergence for decision iterates and the efficiency of the IS scheme. In this paper, we propose an iterative gradient-based algorithm that jointly updates the decision variable and the IS distribution without requiring time-scale separation between the two. Our method achieves the lowest possible asymptotic variance and guarantees global convergence under convexity of the objective and mild assumptions on the IS distribution family. Furthermore, we show that these properties are preserved under linear constraints by incorporating a recent variant of Nesterov’s dual averaging method.

arxiv情報

著者 Liviu Aolaritei,Bart P. G. Van Parys,Henry Lam,Michael I. Jordan
発行日 2025-04-04 16:10:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, math.OC, math.ST, stat.ML, stat.TH パーマリンク