A versatile deep learning-based protein-ligand interaction prediction model for accurate binding affinity scoring and virtual screening

要約

タンパク質-リガンド相互作用 (PLI) の予測は創薬において重要であり、標的タンパク質に効果的に結合する分子の同定と強化に役立ちます。
深層学習ベースの PLI 予測は最近進歩しているにもかかわらず、PLI 予測における正確な結合親和性スコアリングと仮想スクリーニングが可能な多用途モデルの開発は継続的な課題です。
これは主に、構造親和性データが欠如しており、モデルの汎化能力が低いことが原因です。
ここでは、物理学に基づいたニューラル ネットワークとともに新しいデータ拡張戦略を導入することで、この課題に対する実行可能な解決策を提案します。
結果として得られるモデルは、スコアリング機能とスクリーニング機能の両方において大幅な向上を示しています。
そのパフォーマンスはタスク固有の深層学習ベースの PLI 予測モデルと比較され、その多用途性が確認されました。
特に、仮想スクリーニングでは十分に高いパフォーマンスを維持しながら、派生ベンチマークでは計算コストのかかる分子動力学シミュレーションや他の深層学習モデルをも上回るパフォーマンスを示しました。
これは、創薬におけるこのアプローチの可能性を強調し、結合親和性スコアリングと仮想スクリーニングの両方への適用可能性を示しています。

要約(オリジナル)

Protein–ligand interaction (PLI) prediction is critical in drug discovery, aiding the identification and enhancement of molecules that effectively bind to target proteins. Despite recent advances in deep learning-based PLI prediction, developing a versatile model capable of accurate binding affinity scoring and virtual screening in PLI prediction is an ongoing challenge. This is primarily due to the lack of structure–affinity data, resulting in low model generalization ability. We here propose a viable solution to this challenge by introducing a novel data augmentation strategy along with a physics-informed neural network. The resulting model exhibits significant improvement in both scoring and screening capabilities. Its performance was compared to task-specific deep learning-based PLI prediction models, confirming its versatility. Notably, it even outperformed computationally expensive molecular dynamics simulations as well as the other deep learning models in a derivative benchmark while maintaining sufficiently high performance in virtual screening. This underscores the potential of this approach in drug discovery, demonstrating its applicability to both binding affinity scoring and virtual screening.

arxiv情報

著者 Seokhyun Moon,Sang-Yeon Hwang,Jaechang Lim,Woo Youn Kim
発行日 2023-07-03 14:46:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.BM パーマリンク