Classifier-free graph diffusion for molecular property targeting

要約

この研究は、特性ターゲティングのタスク、つまり、新規薬剤および材料開発のための候補スクリーニングを促進するために、ターゲットの化学的特性に条件付けされた分子を生成するタスクに焦点を当てています。
DiGress は、分子グラフの最近の普及モデルであり、その際立った特徴は、分類子ベース (CB) ガイダンスを通じてプロパティのターゲティングを可能にすることです。
CB ガイダンスは分子のようなグラフを生成するために機能する可能性がありますが、その仮定が化学ドメインにはあまり当てはまらないという事実を示唆しています。
この洞察に基づいて、トレーニング プロセスに調整情報を直接注入することで機能する、分類子を使用しない DiGress (FreeGress) を提案します。
CF ガイダンスは、仮定がそれほど厳しくなく、補助的なプロパティ リグレッサーをトレーニングする必要がないため、モデル内のトレーニング可能なパラメーターの数が半分になるため便利です。
QM9 および ZINC-250k ベンチマークでのプロパティ ターゲティング タスクの DiGress に関して、このモデルにより平均絶対誤差が最大 79% 改善されることが経験的に示されています。
追加の貢献として、分子量などの特定の化学的特性が分子内の原子の数と相関するという観察に基づいて、生成されたサンプルの化学的妥当性を向上させるためのシンプルかつ強力なアプローチを提案します。

要約(オリジナル)

This work focuses on the task of property targeting: that is, generating molecules conditioned on target chemical properties to expedite candidate screening for novel drug and materials development. DiGress is a recent diffusion model for molecular graphs whose distinctive feature is allowing property targeting through classifier-based (CB) guidance. While CB guidance may work to generate molecular-like graphs, we hint at the fact that its assumptions apply poorly to the chemical domain. Based on this insight we propose a classifier-free DiGress (FreeGress), which works by directly injecting the conditioning information into the training process. CF guidance is convenient given its less stringent assumptions and since it does not require to train an auxiliary property regressor, thus halving the number of trainable parameters in the model. We empirically show that our model yields up to 79% improvement in Mean Absolute Error with respect to DiGress on property targeting tasks on QM9 and ZINC-250k benchmarks. As an additional contribution, we propose a simple yet powerful approach to improve chemical validity of generated samples, based on the observation that certain chemical properties such as molecular weight correlate with the number of atoms in molecules.

arxiv情報

著者 Matteo Ninniri,Marco Podda,Davide Bacciu
発行日 2024-10-01 13:45:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.BM パーマリンク