Constrained Exploration via Reflected Replica Exchange Stochastic Gradient Langevin Dynamics

要約

レプリカ交換確率勾配ランジュバン動力学(reSGLD)は、大規模データセットにおける非凸学習のための効果的なサンプラーである。しかし、高温連鎖が分布の尾部に深く入り込みすぎると、シミュレーションが停滞する問題が発生することがある。この問題に対処するため、我々はreflected reSGLD (r2SGLD)を提案する。これは、境界領域内での反射ステップを利用することで、制約付き非凸探索用に調整されたアルゴリズムである。理論的には、領域の直径を小さくすることで、混合率が向上し、$textit{quadratic}$挙動を示すことを観測する。経験的には、物理的制約のある力学系の同定、制約のあるマルチモーダル分布のシミュレーション、画像分類タスクなど、広範な実験を通してその性能を検証する。理論的・実証的知見から、シミュレーションの効率を向上させる上で、制約付き探索が極めて重要な役割を果たすことが明らかになった。

要約(オリジナル)

Replica exchange stochastic gradient Langevin dynamics (reSGLD) is an effective sampler for non-convex learning in large-scale datasets. However, the simulation may encounter stagnation issues when the high-temperature chain delves too deeply into the distribution tails. To tackle this issue, we propose reflected reSGLD (r2SGLD): an algorithm tailored for constrained non-convex exploration by utilizing reflection steps within a bounded domain. Theoretically, we observe that reducing the diameter of the domain enhances mixing rates, exhibiting a $\textit{quadratic}$ behavior. Empirically, we test its performance through extensive experiments, including identifying dynamical systems with physical constraints, simulations of constrained multi-modal distributions, and image classification tasks. The theoretical and empirical findings highlight the crucial role of constrained exploration in improving the simulation efficiency.

arxiv情報

著者 Haoyang Zheng,Hengrong Du,Qi Feng,Wei Deng,Guang Lin
発行日 2024-06-03 13:48:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク