3DMolFormer: A Dual-channel Framework for Structure-based Drug Discovery

要約

タンパク質リガンドドッキングとポケットアウェア3Dドラッグデザインのタスクを網羅する構造ベースの創薬は、創薬の中心的な課題を表しています。
ただし、両方のタスクに対処するための既存の作業は、それらの間の二重性を効果的に活用することはできません。各タスクの現在の方法は、3D情報のモデリングと利用可能なデータの制限の課題によって妨げられます。
これらの問題に対処するために、ドッキングと3Dの薬物設計タスクの両方に適用される統一されたデュアルチャネルトランスベースのフレームワークである3Dmolformerを提案します。
具体的には、離散トークンと連続数の並列シーケンスを使用して3Dポケットリガンド複合体を表し、対応するデュアルチャネルトランスモデルを設計してこの形式を処理し、3D情報モデリングの課題を克服します。
さらに、混合データセットでの大規模なトレーニングを通じてデータの制限を緩和し、2つのタスクに合わせてそれぞれ監視された補強学習微調整技術が続きます。
実験結果は、3Dmolformerがタンパク質リガンドドッキングとポケットアウェア3D薬物設計の両方で以前のアプローチを上回ることを示しており、構造ベースの創薬における有望なアプリケーションを強調しています。
このコードは、https://github.com/hxyfighter/3dmolformerで入手できます。

要約(オリジナル)

Structure-based drug discovery, encompassing the tasks of protein-ligand docking and pocket-aware 3D drug design, represents a core challenge in drug discovery. However, no existing work can deal with both tasks to effectively leverage the duality between them, and current methods for each task are hindered by challenges in modeling 3D information and the limitations of available data. To address these issues, we propose 3DMolFormer, a unified dual-channel transformer-based framework applicable to both docking and 3D drug design tasks, which exploits their duality by utilizing docking functionalities within the drug design process. Specifically, we represent 3D pocket-ligand complexes using parallel sequences of discrete tokens and continuous numbers, and we design a corresponding dual-channel transformer model to handle this format, thereby overcoming the challenges of 3D information modeling. Additionally, we alleviate data limitations through large-scale pre-training on a mixed dataset, followed by supervised and reinforcement learning fine-tuning techniques respectively tailored for the two tasks. Experimental results demonstrate that 3DMolFormer outperforms previous approaches in both protein-ligand docking and pocket-aware 3D drug design, highlighting its promising application in structure-based drug discovery. The code is available at: https://github.com/HXYfighter/3DMolFormer .

arxiv情報

著者 Xiuyuan Hu,Guoqing Liu,Can Chen,Yang Zhao,Hao Zhang,Xue Liu
発行日 2025-02-07 17:28:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG パーマリンク