要約
分子空間を探索することは、化学的性質や反応の理解を進め、材料科学、医療、エネルギーにおける画期的な革新につなげるために極めて重要である。本稿では、古典的な変分オートエンコーダ(VAE)の限界を超える新しいアプローチであるディープカーネル学習(DKL)を用いて、分子探索における能動学習のアプローチを探索する。QM9データセットを用いて、類似性に基づいて分子構造を解析する従来のVAEとDKLを対比し、潜在空間における疎な規則性による限界を明らかにする。しかしDKLは、構造と特性を相関させ、分子の機能性を優先する潜在空間を作り出すことで、より全体的な視点を提供する。これは、埋め込みベクトルを反復的に再計算し、ターゲット特性の実験的利用可能性に合わせることで達成される。その結果、潜在空間はよりよく整理されるだけでなく、分子機能性を表す極大値が集中したり、予測の不確実性と誤差の間に相関があるなどのユニークな特徴を示す。さらに、特定の化合物の周辺に排除領域が形成されていることから、画期的な機能性を持つ可能性のある未踏領域が示されている。この研究は、分子研究におけるDKLの可能性を強調するものであり、古典的なVAEの限界を超えた分子機能性の理解と発見に新たな道を提供するものである。
要約(オリジナル)
Exploring molecular spaces is crucial for advancing our understanding of chemical properties and reactions, leading to groundbreaking innovations in materials science, medicine, and energy. This paper explores an approach for active learning in molecular discovery using Deep Kernel Learning (DKL), a novel approach surpassing the limits of classical Variational Autoencoders (VAEs). Employing the QM9 dataset, we contrast DKL with traditional VAEs, which analyze molecular structures based on similarity, revealing limitations due to sparse regularities in latent spaces. DKL, however, offers a more holistic perspective by correlating structure with properties, creating latent spaces that prioritize molecular functionality. This is achieved by recalculating embedding vectors iteratively, aligning with the experimental availability of target properties. The resulting latent spaces are not only better organized but also exhibit unique characteristics such as concentrated maxima representing molecular functionalities and a correlation between predictive uncertainty and error. Additionally, the formation of exclusion regions around certain compounds indicates unexplored areas with potential for groundbreaking functionalities. This study underscores DKL’s potential in molecular research, offering new avenues for understanding and discovering molecular functionalities beyond classical VAE limitations.
arxiv情報
著者 | Ayana Ghosh,Maxim Ziatdinov and,Sergei V. Kalinin |
発行日 | 2024-03-02 15:34:31+00:00 |
arxivサイト | arxiv_id(pdf) |