Learning Chemical Reaction Representation with Reactant-Product Alignment

要約

有機合成は化学産業の要である。有機反応に関連するタスクをサポートするロバストな機械学習モデルの開発は、大きな関心を集めている。しかし、現在の手法は、手作業で作成された特徴量や、他領域のモデル・アーキテクチャの直接的な適応に依存しており、データ・スケールが大きくなるにつれて実現性に欠けたり、反応に内在する豊富な化学情報を無視したりしている。これらの問題に対処するために、本論文では様々な有機反応関連タスクのための新しい化学反応表現学習モデルであるRAlignを紹介する。反応物と生成物の間の原子対応を統合することにより、我々のモデルは反応中に起こる分子変換を識別し、それによって反応メカニズムの理解を向上させる。反応条件を化学反応表現に組み込むためのアダプター構造を設計し、モデルが様々な反応条件を扱い、様々なデータセットや下流のタスクに適応できるようにした。さらに、反応中心を意識したアテンション機構を導入し、モデルが主要な官能基に集中できるようにすることで、化学反応の強力な表現を生成する。我々のモデルは様々な下流タスクで評価された。実験の結果、我々のモデルは、ほとんどのデータセットにおいて、既存の化学反応表現学習アーキテクチャを著しく上回ることが示された。論文が受理されれば、コードをオープンソース化する予定である。

要約(オリジナル)

Organic synthesis stands as a cornerstone of the chemical industry. The development of robust machine learning models to support tasks associated with organic reactions is of significant interest. However, current methods rely on hand-crafted features or direct adaptations of model architectures from other domains, which lack feasibility as data scales increase or ignore the rich chemical information inherent in reactions. To address these issues, this paper introduces RAlign, a novel chemical reaction representation learning model for various organic reaction-related tasks. By integrating atomic correspondence between reactants and products, our model discerns the molecular transformations that occur during the reaction, thereby enhancing comprehension of the reaction mechanism. We have designed an adapter structure to incorporate reaction conditions into the chemical reaction representation, allowing the model to handle various reaction conditions and to adapt to various datasets and downstream tasks. Additionally, we introduce a reaction-center-aware attention mechanism that enables the model to concentrate on key functional groups, thereby generating potent representations for chemical reactions. Our model has been evaluated on a range of downstream tasks. Experimental results indicate that our model markedly outperforms existing chemical reaction representation learning architectures on most of the datasets. We plan to open-source the code contingent upon the acceptance of the paper.

arxiv情報

著者 Kaipeng Zeng,Xianbin Liu,Yu Zhang,Xiaokang Yang,Yaohui Jin,Yanyan Xu
発行日 2025-01-03 16:55:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク