$α$-divergence Improves the Entropy Production Estimation via Machine Learning

要約

近年、機械学習による軌道データからの確率的エントロピー生成 (EP) のアルゴリズム推定への関心が高まっています。
このようなアルゴリズムの重要な要素は、正確な EP 推定を保証する最小化を行う損失関数の特定です。
この研究では、多くの損失関数、つまり $\alpha$-divergence の変分表現を実装する損失関数が存在し、EP 推定に使用できることを示します。
$\alpha$ を $-1$ と $0$ の間の値に固定することにより、$\alpha$-NEEP (エントロピー生成のためのニューラル推定器) は、強い非平衡駆動や低速ダイナミクスに対してはるかに堅牢なパフォーマンスを示します。
カルバック・ライブラー発散 ($\alpha = 0$) に基づく既存の手法。
特に、$\alpha = -0.5$ を選択すると、最適な結果が得られる傾向があります。
私たちの発見を裏付けるために、EP 推定問題の正確に解ける単純化を提示します。その損失関数の状況と確率的特性は、 $\alpha$-NEEP の堅牢性に対するより深い直観を与えます。

要約(オリジナル)

Recent years have seen a surge of interest in the algorithmic estimation of stochastic entropy production (EP) from trajectory data via machine learning. A crucial element of such algorithms is the identification of a loss function whose minimization guarantees the accurate EP estimation. In this study, we show that there exists a host of loss functions, namely those implementing a variational representation of the $\alpha$-divergence, which can be used for the EP estimation. By fixing $\alpha$ to a value between $-1$ and $0$, the $\alpha$-NEEP (Neural Estimator for Entropy Production) exhibits a much more robust performance against strong nonequilibrium driving or slow dynamics, which adversely affects the existing method based on the Kullback-Leibler divergence ($\alpha = 0$). In particular, the choice of $\alpha = -0.5$ tends to yield the optimal results. To corroborate our findings, we present an exactly solvable simplification of the EP estimation problem, whose loss function landscape and stochastic properties give deeper intuition into the robustness of the $\alpha$-NEEP.

arxiv情報

著者 Euijoon Kwon,Yongjoo Baek
発行日 2024-01-19 14:53:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.stat-mech, cs.LG, stat.ML パーマリンク