DiffER: Categorical Diffusion for Chemical Retrosynthesis

要約

自動化学レトロシンセシスの方法は、主にトランスニューラルネットワークを通じて、自然言語処理のために伝統的に構築されたモデルの適用を通じて最近の成功を見出しました。
これらのモデルは、化学製品と反応物の笑顔のエンコーディング間を翻訳する重要な能力を実証していますが、それらの自己回帰の性質の結果として制約されています。
異なることを提案します。これは、カテゴリー拡散の形式でレトロシンセシス予測のための代替テンプレートを含まない方法であり、出力スマイルシーケンス全体を一斉に予測できるようにします。
テンプレートのない方法でトップ3、トップ5、トップ10精度のトップ1精度と競争力のあるパフォーマンスのために最先端のパフォーマンスを達成する拡散モデルのアンサンブルを構築します。
Differは、実験室の設定で使用されているさまざまな合成技術を学習し、Top-Kの精度メトリックに関する他のさまざまなテンプレートフリーのメソッドを上回ることができる、新しいクラスのテンプレートフリーモデルの強力なベースラインであることを証明しています。
分散を備えた新規長予測成分を備えたカテゴリ拡散モデルのアンサンブルを構築することにより、私たちの方法は、反応物の事後分布からほぼサンプリングすることができ、自信と尤度の強いメトリックを伴う結果を生成します。
さらに、分析は、スマイルシーケンス長の正確な予測がカテゴリ拡散モデルのパフォーマンスをさらに高めるための鍵であることを示しています。

要約(オリジナル)

Methods for automatic chemical retrosynthesis have found recent success through the application of models traditionally built for natural language processing, primarily through transformer neural networks. These models have demonstrated significant ability to translate between the SMILES encodings of chemical products and reactants, but are constrained as a result of their autoregressive nature. We propose DiffER, an alternative template-free method for retrosynthesis prediction in the form of categorical diffusion, which allows the entire output SMILES sequence to be predicted in unison. We construct an ensemble of diffusion models which achieves state-of-the-art performance for top-1 accuracy and competitive performance for top-3, top-5, and top-10 accuracy among template-free methods. We prove that DiffER is a strong baseline for a new class of template-free model, capable of learning a variety of synthetic techniques used in laboratory settings and outperforming a variety of other template-free methods on top-k accuracy metrics. By constructing an ensemble of categorical diffusion models with a novel length prediction component with variance, our method is able to approximately sample from the posterior distribution of reactants, producing results with strong metrics of confidence and likelihood. Furthermore, our analyses demonstrate that accurate prediction of the SMILES sequence length is key to further boosting the performance of categorical diffusion models.

arxiv情報

著者 Sean Current,Ziqi Chen,Daniel Adu-Ampratwum,Xia Ning,Srinivasan Parthasarathy
発行日 2025-05-29 17:53:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク