AlignAb: Pareto-Optimal Energy Alignment for Designing Nature-Like Antibodies

要約

抗体配列構造の共同設計に特化した深層学習モデルをトレーニングするための 3 段階のフレームワークを紹介します。
まず、数百万の抗体配列データを使用して言語モデルを事前トレーニングします。
次に、学習した表現を使用して、抗体の配列と構造の両方を最適化するための拡散モデルのトレーニングをガイドします。
最終的なアライメント段階では、抗原結合部位に対する反発力が低く、誘引力が高い抗体を優先するようにモデルを最適化し、設計の合理性と機能性を強化します。
矛盾するエネルギー優先を緩和するために、AbDPO (Antibody Direct Preference Optimization) を拡張して、複数のエネルギーベースのアラインメント目標の下でモデルをパレート最適化に導きます。
さらに、温度スケーリングを備えた反復学習パラダイムを採用し、追加のデータを必要とせずにモデルが多様なオンライン データセットからメリットを享受できるようにします。
実際、私たちが提案する方法は、ベースラインや以前のアライメント技術によって生成されたトップサンプルと比較して、抗体設計のより優れたパレートフロントを生成する際に高い安定性と効率を実現します。
広範な実験を通じて、当社は高い結合親和性を備えた天然に似た抗体を一貫して生成する当社のメソッドの優れたパフォーマンスを示しています。

要約(オリジナル)

We present a three-stage framework for training deep learning models specializing in antibody sequence-structure co-design. We first pre-train a language model using millions of antibody sequence data. Then, we employ the learned representations to guide the training of a diffusion model for joint optimization over both sequence and structure of antibodies. During the final alignment stage, we optimize the model to favor antibodies with low repulsion and high attraction to the antigen binding site, enhancing the rationality and functionality of the designs. To mitigate conflicting energy preferences, we extend AbDPO (Antibody Direct Preference Optimization) to guide the model towards Pareto optimality under multiple energy-based alignment objectives. Furthermore, we adopt an iterative learning paradigm with temperature scaling, enabling the model to benefit from diverse online datasets without requiring additional data. In practice, our proposed methods achieve high stability and efficiency in producing a better Pareto front of antibody designs compared to top samples generated by baselines and previous alignment techniques. Through extensive experiments, we showcase the superior performance of our methods in generating nature-like antibodies with high binding affinity consistently.

arxiv情報

著者 Yibo Wen,Chenwei Xu,Jerry Yao-Chieh Hu,Han Liu
発行日 2024-12-30 14:50:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク