MolTailor: Tailoring Chemical Molecular Representation to Specific Tasks via Text Prompts

要約

ディープラーニングは現在、創薬に広く使用されており、大幅な高速化とコスト削減を実現しています。
最も基本的な構成要素である分子表現は、さまざまな下流アプリケーションを可能にする分子特性を予測するために不可欠です。
既存の手法のほとんどは、より良い表現を学習するために、より多くの情報を組み込もうとします。
ただし、特定のタスクにとってすべての機能が同様に重要であるわけではありません。
これを無視すると、トレーニングの効率と予測の精度が損なわれる可能性があります。
この問題に対処するために、言語モデルをエージェントとして扱い、分子事前学習モデルを知識ベースとして扱う新しいアプローチを提案します。
エージェントは、ちょうど仕立て屋がクライアントに合わせて服をカスタマイズするのと同じように、タスクの自然言語記述を理解することによって、分子表現におけるタスク関連の特徴を強調します。
したがって、このアプローチを MolTailor と呼びます。
評価では、MolTailor のベースラインを上回る優れたパフォーマンスが実証され、分子表現学習の関連性を高める効果が検証されています。
これは、既存の強力な分子表現手法の機能をより適切に活用し、解き放つための言語モデルに基づく最適化の可能性を示しています。
私たちのコードは https://github.com/SCIR-HI/MolTailor で入手できます。

要約(オリジナル)

Deep learning is now widely used in drug discovery, providing significant acceleration and cost reduction. As the most fundamental building block, molecular representation is essential for predicting molecular properties to enable various downstream applications. Most existing methods attempt to incorporate more information to learn better representations. However, not all features are equally important for a specific task. Ignoring this would potentially compromise the training efficiency and predictive accuracy. To address this issue, we propose a novel approach, which treats language models as an agent and molecular pretraining models as a knowledge base. The agent accentuates task-relevant features in the molecular representation by understanding the natural language description of the task, just as a tailor customizes clothes for clients. Thus, we call this approach MolTailor. Evaluations demonstrate MolTailor’s superior performance over baselines, validating the efficacy of enhancing relevance for molecular representation learning. This illustrates the potential of language model guided optimization to better exploit and unleash the capabilities of existing powerful molecular representation methods. Our code is available at https://github.com/SCIR-HI/MolTailor.

arxiv情報

著者 Haoqiang Guo,Sendong Zhao,Haochun Wang,Yanrui Du,Bing Qin
発行日 2024-04-19 13:07:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG, q-bio.BM パーマリンク