要約
標的タンパク質の結合部位を予測することは、創薬において基本的な役割を果たします。
ほとんどの既存の深層学習方法は、タンパク質の原子をボクセルに空間的にクラスター化し、ボクセル化されたタンパク質を予測のために 3D CNN に供給することによって、タンパク質を 3D 画像と見なします。
ただし、CNN ベースの方法では、いくつかの重大な問題が発生します。1) 不規則なタンパク質構造の表現に欠陥があります。
2) 回転に敏感。
3) タンパク質表面を特徴付けるには不十分です。
4) データ分布の変化に気付かない。
上記の問題に対処するために、この作業では、結合部位予測のための E(3) 等変グラフ ニューラル ネットワーク (GNN) である EquiPocket を提案します。
具体的に言うと、EquiPocket は 3 つのモジュールで構成されています。1 つ目は各表面原子の局所的な幾何学的情報を抽出するモジュール、2 つ目はタンパク質の化学構造と空間構造の両方をモデル化するモジュール、最後のモジュールは等変量を介して表面の形状をキャプチャするモジュールです。
表面原子を通過するメッセージ。
さらに、可変タンパク質サイズによって引き起こされるデータ分布シフト効果をより適切に軽減するために、高密度の注意出力レイヤーを提案します。
いくつかの代表的なベンチマークでの広範な実験は、最先端の方法に対するフレームワークの優位性を示しています。
要約(オリジナル)
Predicting the binding sites of the target proteins plays a fundamental role in drug discovery. Most existing deep-learning methods consider a protein as a 3D image by spatially clustering its atoms into voxels and then feed the voxelized protein into a 3D CNN for prediction. However, the CNN-based methods encounter several critical issues: 1) defective in representing irregular protein structures; 2) sensitive to rotations; 3) insufficient to characterize the protein surface; 4) unaware of data distribution shift. To address the above issues, this work proposes EquiPocket, an E(3)-equivariant Graph Neural Network (GNN) for binding site prediction. In particular, EquiPocket consists of three modules: the first one to extract local geometric information for each surface atom, the second one to model both the chemical and spatial structure of the protein, and the last one to capture the geometry of the surface via equivariant message passing over the surface atoms. We further propose a dense attention output layer to better alleviate the data distribution shift effect incurred by the variable protein size. Extensive experiments on several representative benchmarks demonstrate the superiority of our framework to the state-of-the-art methods.
arxiv情報
著者 | Yang Zhang,Wenbing Huang,Zhewei Wei,Ye Yuan,Zhaohan Ding |
発行日 | 2023-02-23 17:18:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google