MolEditRL: Structure-Preserving Molecular Editing via Discrete Diffusion and Reinforcement Learning

要約

分子編集は、特定の分子を修正して、構造的類似性を維持しながら、望ましい化学特性を最適化することを目的としています。
ただし、現在のアプローチは通常、ストリングベースの表現または連続表現に依存しており、分子の離散的なグラフ構造化された性質を適切にキャプチャできず、構造的忠実度が限られており、制御性が低下します。
この論文では、構造的制約を正確な特性最適化と明示的に統合する分子編集フレームワークであるMoleditRLを提案します。
具体的には、moleditrlは2つの段階で構成されています。(1)ソース構造と自然言語の指示に条件付けられた標的分子を再構築するために前処理された離散グラフ拡散モデル。
(2)グラフ制約の下で編集決定を明示的に最適化することにより、プロパティの整合性と構造的保存をさらに強化する編集補強学習微調整段階。
包括的な評価のために、10の化学属性にわたる単一およびマルチプロパティタスクにまたがる300万の多様な例で構成される最大かつ最も豊富な分子編集データセットであるMoledit-Instructを構築します。
実験結果は、Moleditrlがプロパティの最適化精度と構造的忠実度の両方で最先端の方法を大幅に上回り、成功率の編集で74 \%の改善を達成し、98 \%のパラメーターを使用していることを示しています。

要約(オリジナル)

Molecular editing aims to modify a given molecule to optimize desired chemical properties while preserving structural similarity. However, current approaches typically rely on string-based or continuous representations, which fail to adequately capture the discrete, graph-structured nature of molecules, resulting in limited structural fidelity and poor controllability. In this paper, we propose MolEditRL, a molecular editing framework that explicitly integrates structural constraints with precise property optimization. Specifically, MolEditRL consists of two stages: (1) a discrete graph diffusion model pretrained to reconstruct target molecules conditioned on source structures and natural language instructions; (2) an editing-aware reinforcement learning fine-tuning stage that further enhances property alignment and structural preservation by explicitly optimizing editing decisions under graph constraints. For comprehensive evaluation, we construct MolEdit-Instruct, the largest and most property-rich molecular editing dataset, comprising 3 million diverse examples spanning single- and multi-property tasks across 10 chemical attributes. Experimental results demonstrate that MolEditRL significantly outperforms state-of-the-art methods in both property optimization accuracy and structural fidelity, achieving a 74\% improvement in editing success rate while using 98\% fewer parameters.

arxiv情報

著者 Yuanxin Zhuang,Dazhong Shen,Ying Sun
発行日 2025-05-26 15:29:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.QM パーマリンク