要約
ディープラーニングはタンパク質の構造予測に大きな進歩をもたらし、計算生物学の発展を前進させました。
しかし、単鎖構造の予測では高い精度が達成されているにもかかわらず、かなりの数の大きなホモオリゴマー集合体が内部対称性を示し、構造決定において大きな課題となっています。
対称的なタンパク質集合体は通常長いシーケンスを持ち、構造計算を実行不可能にするため、既存の深層学習手法のパフォーマンスは制限されています。
さらに、対称タンパク質複合体内の複数の同一サブユニットは、ラベル割り当てにおける監視の曖昧さの問題を引き起こし、トレーニングには一貫した構造モデリングが必要です。
これらの問題に取り組むために、対称アセンブリにおけるタンパク質間相互作用をモデル化するために、SGNet と呼ばれるタンパク質折りたたみフレームワークを提案します。
SGNet は、単一のサブユニットで特徴抽出を実行し、私たちが提案する対称モジュールを使用してアセンブリ全体を生成します。これにより、シーケンス長によって引き起こされる計算上の問題が大幅に軽減されます。
対称性を一貫してモデリングする精緻な設計のおかげで、タンパク質の四次構造予測においてすべての大域的対称性タイプをモデル化できます。
対称タンパク質複合体のベンチマークに関する広範な実験結果は、私たちの方法の有効性をさらに実証しています。
要約(オリジナル)
Deep learning has made significant progress in protein structure prediction, advancing the development of computational biology. However, despite the high accuracy achieved in predicting single-chain structures, a significant number of large homo-oligomeric assemblies exhibit internal symmetry, posing a major challenge in structure determination. The performances of existing deep learning methods are limited since the symmetrical protein assembly usually has a long sequence, making structural computation infeasible. In addition, multiple identical subunits in symmetrical protein complex cause the issue of supervision ambiguity in label assignment, requiring a consistent structure modeling for the training. To tackle these problems, we propose a protein folding framework called SGNet to model protein-protein interactions in symmetrical assemblies. SGNet conducts feature extraction on a single subunit and generates the whole assembly using our proposed symmetry module, which largely mitigates computational problems caused by sequence length. Thanks to the elaborate design of modeling symmetry consistently, we can model all global symmetry types in quaternary protein structure prediction. Extensive experimental results on a benchmark of symmetrical protein complexes further demonstrate the effectiveness of our method.
arxiv情報
著者 | Zhaoqun Li,Jingcheng Yu,Qiwei Ye |
発行日 | 2024-03-07 10:39:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google