Automated 3D Pre-Training for Molecular Property Prediction

要約

分子特性の予測は、創薬および材料科学における重要な問題です。
幾何学的構造が分子特性の予測に必要であることが実証されているため、3D 情報とさまざまなグラフ学習方法を組み合わせて予測性能を向上させています。
ただし、分子の幾何学的構造を取得することは、計算コストが高いため、多くの実世界のアプリケーションでは実現できません。
この研究では、新しい 3D 事前トレーニング フレームワーク (3D PGT と呼ばれる) を提案します。これは、3D 分子グラフでモデルを事前トレーニングし、3D 構造を持たない分子グラフでモデルを微調整します。
結合長、結合角、および二面角が完全な分子の 3D 配座異性体に対応する 3 つの基本的な幾何学的記述子であるという事実に基づいて、最初にこれら 3 つの属性に基づいたマルチタスク生成事前学習フレームワークを開発します。
次に、これら 3 つの生成タスクを自動的に融合するために、\textit{総エネルギー} を使用して代理メトリックを設計し、総エネルギーが 3D 配座異性体の品質に対応するため、3 つの口実タスクの重み分布を検索します。 2D 分子グラフに関する広範な実験
さまざまな事前トレーニング ベースラインと比較して、提案された 3D PGT の精度、効率、汎化能力を実証するために実施されます。

要約(オリジナル)

Molecular property prediction is an important problem in drug discovery and materials science. As geometric structures have been demonstrated necessary for molecular property prediction, 3D information has been combined with various graph learning methods to boost prediction performance. However, obtaining the geometric structure of molecules is not feasible in many real-world applications due to the high computational cost. In this work, we propose a novel 3D pre-training framework (dubbed 3D PGT), which pre-trains a model on 3D molecular graphs, and then fine-tunes it on molecular graphs without 3D structures. Based on fact that bond length, bond angle, and dihedral angle are three basic geometric descriptors corresponding to a complete molecular 3D conformer, we first develop a multi-task generative pre-train framework based on these three attributes. Next, to automatically fuse these three generative tasks, we design a surrogate metric using the \textit{total energy} to search for weight distribution of the three pretext task since total energy corresponding to the quality of 3D conformer.Extensive experiments on 2D molecular graphs are conducted to demonstrate the accuracy, efficiency and generalization ability of the proposed 3D PGT compared to various pre-training baselines.

arxiv情報

著者 Xu Wang,Huan Zhao,Weiwei Tu,Quanming Yao
発行日 2023-06-13 14:43:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, q-bio.QM パーマリンク