Augmenting Control over Exploration Space in Molecular Dynamics Simulators to Streamline De Novo Analysis through Generative Control Policies

要約

この研究では、強化学習 (RL) を利用して分子動力学シミュレーション (MD) の制御、有効性、スケーラビリティを強化する基本的な手法である P5 モデルを紹介します。
当社の革新的な戦略により、ターゲットのポリマー鎖構造のサンプリングが最適化され、37.1% 以上の効率向上が見られます。
RL によって引き起こされる制御ポリシーは誘導バイアスとして機能し、ブラウン力を変調してシステムを望ましい状態に導くことで、従来の MD が許可する範囲を超えて構成空間の探索を拡大します。
この広範な探索により、より多様な構造のセットが生成され、ポリマー開発、創薬、材料設計の進歩にとって極めて重要な特徴である特定の特性がターゲットとなります。
私たちの技術は、限られた事前知識で新しいシステムを調査する場合に大きな利点をもたらし、生成技術を使用して複雑なシミュレーション問題に取り組むための新しい方法論を開きます。

要約(オリジナル)

This study introduces the P5 model – a foundational method that utilizes reinforcement learning (RL) to augment control, effectiveness, and scalability in molecular dynamics simulations (MD). Our innovative strategy optimizes the sampling of target polymer chain conformations, marking an efficiency improvement of over 37.1%. The RL-induced control policies function as an inductive bias, modulating Brownian forces to steer the system towards the preferred state, thereby expanding the exploration of the configuration space beyond what traditional MD allows. This broadened exploration generates a more varied set of conformations and targets specific properties, a feature pivotal for progress in polymer development, drug discovery, and material design. Our technique offers significant advantages when investigating new systems with limited prior knowledge, opening up new methodologies for tackling complex simulation problems with generative techniques.

arxiv情報

著者 Paloma Gonzalez-Rojas,Andrew Emmel,Luis Martinez,Neil Malur,Gregory Rutledge
発行日 2023-06-26 13:54:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.mtrl-sci, cs.LG パーマリンク