Unified Molecular Modeling via Modality Blending

要約

自己教師あり分子表現学習は、AI 支援創薬などの分子ベースのタスクにとって重要です。
最近の研究では、各モダリティを個別に扱う単純な調整戦略により、表現学習に 2D と 3D の両方の情報を活用することが検討されています。
この研究では、新しい「ブレンドしてから予測する」自己教師あり学習方法 (MoleBLEND) を導入します。これは、さまざまなモダリティからの原子関係をエンコード用の 1 つの統一された関係行列にブレンドし、その後 2D と 3D の両方のモダリティ固有の情報を回復します。
構造物。
原子関係をアンカーとして扱うことにより、一見似ていない 2D および 3D 多様体が整列され、きめ細かい関係レベルで有機的に統合されます。
広範な実験により、MoleBLEND が主要な 2D/3D ベンチマーク全体で最先端のパフォーマンスを達成することが示されています。
さらに、相互情報量の最大化の観点から理論的な洞察を提供し、私たちの方法が対照的、生成的 (モーダル間予測)、およびマスク後予測 (モーダル内予測) の目的を単一の凝集したブレンド後予測に統合していることを示します。
フレームワーク。

要約(オリジナル)

Self-supervised molecular representation learning is critical for molecule-based tasks such as AI-assisted drug discovery. Recent studies consider leveraging both 2D and 3D information for representation learning, with straightforward alignment strategies that treat each modality separately. In this work, we introduce a novel ‘blend-then-predict’ self-supervised learning method (MoleBLEND), which blends atom relations from different modalities into one unified relation matrix for encoding, then recovers modality-specific information for both 2D and 3D structures. By treating atom relationships as anchors, seemingly dissimilar 2D and 3D manifolds are aligned and integrated at fine-grained relation-level organically. Extensive experiments show that MoleBLEND achieves state-of-the-art performance across major 2D/3D benchmarks. We further provide theoretical insights from the perspective of mutual-information maximization, demonstrating that our method unifies contrastive, generative (inter-modal prediction) and mask-then-predict (intra-modal prediction) objectives into a single cohesive blend-then-predict framework.

arxiv情報

著者 Qiying Yu,Yudi Zhang,Yuyan Ni,Shikun Feng,Yanyan Lan,Hao Zhou,Jingjing Liu
発行日 2023-07-12 15:27:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.BM パーマリンク