A Self-feedback Knowledge Elicitation Approach for Chemical Reaction Predictions

要約

化学反応予測 (CRP) のタスクは、創薬と材料科学の進歩において極めて重要な役割を果たします。
ただし、その有効性は、広大で不確実な化学反応空間と、特にデータ固有の知識を活用する際の既存の方法の限界により、反応選択性を把握する際の課題によって制限されます。
これらの課題に対処するために、データに基づいてキュレーションされた自己フィードバックによる知識引き出しアプローチを導入します。
この方法は、分子表現の反復最適化から始まり、化学反応タイプ (RT) に関する知識の抽出を容易にします。
次に、適応型プロンプト学習を採用して、事前知識を大規模言語モデル (LLM) に注入します。
その結果、逆合成予測精度が 14.2% 向上、試薬予測精度が 74.2% 向上、マルチタスク化学反応を処理するモデルの能力が拡張という大幅な機能強化が実現しました。
この研究は、科学研究における知識引き出しのための新しいパラダイムを提供し、CRP における LLM の未開発の可能性を示しています。

要約(オリジナル)

The task of chemical reaction predictions (CRPs) plays a pivotal role in advancing drug discovery and material science. However, its effectiveness is constrained by the vast and uncertain chemical reaction space and challenges in capturing reaction selectivity, particularly due to existing methods’ limitations in exploiting the data’s inherent knowledge. To address these challenges, we introduce a data-curated self-feedback knowledge elicitation approach. This method starts from iterative optimization of molecular representations and facilitates the extraction of knowledge on chemical reaction types (RTs). Then, we employ adaptive prompt learning to infuse the prior knowledge into the large language model (LLM). As a result, we achieve significant enhancements: a 14.2% increase in retrosynthesis prediction accuracy, a 74.2% rise in reagent prediction accuracy, and an expansion in the model’s capability for handling multi-task chemical reactions. This research offers a novel paradigm for knowledge elicitation in scientific research and showcases the untapped potential of LLMs in CRPs.

arxiv情報

著者 Pengfei Liu,Jun Tao,Zhixiang Ren
発行日 2024-04-15 09:26:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, q-bio.QM パーマリンク