Multi-view biomedical foundation models for molecule-target and property prediction

要約

生体分子空間に適用される基礎モデルは、創薬を加速する可能性を秘めています。
分子表現は、このようなモデルを構築するための鍵となります。
これまでの研究は通常、分子の単一の表現またはビューに焦点を当てていました。
ここでは、グラフ、画像、テキストの分子ビューを統合するマルチビュー基礎モデル アプローチを開発します。
シングルビューの基礎モデルはそれぞれ、最大 2 億分子のデータセットで事前トレーニングされ、結合された表現に集約されます。
当社のマルチビュー モデルは、リガンドとタンパク質の結合、分子溶解度、代謝、毒性を含む 18 のタスクからなる多様なセットで検証されています。
マルチビュー モデルが堅牢に動作し、特定のビューの長所と短所のバランスを取ることができることを示します。
次に、このモデルを適用して、大規模な (> 100 標的) セットの G タンパク質共役受容体 (GPCR) に対して化合物をスクリーニングします。
このターゲットのライブラリから、アルツハイマー病に関連する 33 個を特定しました。
このサブセットでは、私たちのモデルを使用して強力なバインダーを特定し、構造ベースのモデリングと主要な結合モチーフの特定を通じて検証します。

要約(オリジナル)

Foundation models applied to bio-molecular space hold promise to accelerate drug discovery. Molecular representation is key to building such models. Previous works have typically focused on a single representation or view of the molecules. Here, we develop a multi-view foundation model approach, that integrates molecular views of graph, image and text. Single-view foundation models are each pre-trained on a dataset of up to 200M molecules and then aggregated into combined representations. Our multi-view model is validated on a diverse set of 18 tasks, encompassing ligand-protein binding, molecular solubility, metabolism and toxicity. We show that the multi-view models perform robustly and are able to balance the strengths and weaknesses of specific views. We then apply this model to screen compounds against a large (>100 targets) set of G Protein-Coupled receptors (GPCRs). From this library of targets, we identify 33 that are related to Alzheimer’s disease. On this subset, we employ our model to identify strong binders, which are validated through structure-based modeling and identification of key binding motifs.

arxiv情報

著者 Parthasarathy Suryanarayanan,Yunguang Qiu,Shreyans Sethi,Diwakar Mahajan,Hongyang Li,Yuxin Yang,Elif Eyigoz,Aldo Guzman Saenz,Daniel E. Platt,Timothy H. Rumbell,Kenney Ng,Sanjoy Dey,Myson Burch,Bum Chul Kwon,Pablo Meyer,Feixiong Cheng,Jianying Hu,Joseph A. Morrone
発行日 2024-10-25 17:22:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.BM パーマリンク