Minimum-Excess-Work Guidance

要約

過剰な作業を最小限に抑えることにより、統計力学に根ざした概念と最適な輸送への強力な概念接続を伴う、事前に訓練された確率フロー生成モデル(継続的な正規化フローまたは拡散モデルなど)を導くための熱力学的作業に触発された正規化フレームワークを提案します。
当社のアプローチにより、科学的アプリケーションに共通するまばらなデータレジームでの効率的なガイダンスが可能になります。
2つの戦略を紹介します。ユーザー定義のサブセットに確率質量を集中させることにより、まれな遷移状態をサンプリングするためのパスガイダンスと、エントロピーを保存しながら生成された分布を実験的な観測可能性に合わせるための観察可能なガイダンスです。
粗粒のタンパク質モデルでのフレームワークの汎用性を実証し、折り畳まれた状態間の遷移構成をサンプリングし、実験データを使用して系統的バイアスを修正するように導きます。
このメソッドは、最新の生成アーキテクチャを備えた熱力学的原理を橋渡しし、データスカルスドメインの標準的な微調整に代わる原則的で効率的で物理学に触発された代替品を提供します。
経験的結果は、サンプルの効率とバイアスの低下の改善を強調し、分子シミュレーションおよびそれ以降の適用性を強調しています。

要約(オリジナル)

We propose a regularization framework inspired by thermodynamic work for guiding pre-trained probability flow generative models (e.g., continuous normalizing flows or diffusion models) by minimizing excess work, a concept rooted in statistical mechanics and with strong conceptual connections to optimal transport. Our approach enables efficient guidance in sparse-data regimes common to scientific applications, where only limited target samples or partial density constraints are available. We introduce two strategies: Path Guidance for sampling rare transition states by concentrating probability mass on user-defined subsets, and Observable Guidance for aligning generated distributions with experimental observables while preserving entropy. We demonstrate the framework’s versatility on a coarse-grained protein model, guiding it to sample transition configurations between folded/unfolded states and correct systematic biases using experimental data. The method bridges thermodynamic principles with modern generative architectures, offering a principled, efficient, and physics-inspired alternative to standard fine-tuning in data-scarce domains. Empirical results highlight improved sample efficiency and bias reduction, underscoring its applicability to molecular simulations and beyond.

arxiv情報

著者 Christopher Kolloff,Tobias Höppe,Emmanouil Angelis,Mathias Jacob Schreiner,Stefan Bauer,Andrea Dittadi,Simon Olsson
発行日 2025-05-20 15:35:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク