要約
この研究では、分子の新規設計のために Transformer ベースの生成モデルを微調整する方法を紹介します。
リカレント ニューラル ネットワーク (RNN) に対するトランスフォーマーの優れた配列学習能力を活用して、私たちのモデルは、望ましい特性を持つ分子構造を効果的に生成できます。
従来の RNN ベースのモデルとは対照的に、私たちが提案する方法は、さまざまな生物学的標的に対して活性であると予測される化合物の生成において優れたパフォーマンスを示し、分子構造配列の長期依存性を捕捉します。
このモデルの有効性は、クエリ構造の類似物の生成や特定の属性を持つ化合物の生成など、多数のタスクにわたって実証されており、ベースラインの RNN ベースの手法を上回っています。
私たちのアプローチは、足場ホッピング、単一分子から始まるライブラリー拡張、生物学的標的に対して高い予測活性を持つ化合物の生成に使用できます。
要約(オリジナル)
In this work, we introduce a method to fine-tune a Transformer-based generative model for molecular de novo design. Leveraging the superior sequence learning capacity of Transformers over Recurrent Neural Networks (RNNs), our model can generate molecular structures with desired properties effectively. In contrast to the traditional RNN-based models, our proposed method exhibits superior performance in generating compounds predicted to be active against various biological targets, capturing long-term dependencies in the molecular structure sequence. The model’s efficacy is demonstrated across numerous tasks, including generating analogues to a query structure and producing compounds with particular attributes, outperforming the baseline RNN-based methods. Our approach can be used for scaffold hopping, library expansion starting from a single molecule, and generating compounds with high predicted activity against biological targets.
arxiv情報
著者 | Pengcheng Xu,Tao Feng,Tianfan Fu,Siddhartha Laghuvarapu,Jimeng Sun |
発行日 | 2024-01-10 09:17:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google