要約
機械学習 (ML) を化学に統合すると、標的特性を備えた分子の設計に変革の可能性がもたらされます。
ただし、多くの場合、非常に効率的な予測モデルを作成することに重点が置かれており、場合によっては解釈可能性が犠牲になっています。
この研究では、説明可能な AI 技術を活用して、電子受容特性により有機反応において極めて重要な役割を果たすホウ素ベースのルイス酸の合理的な設計を探索します。
ルイス酸性の代用としてフッ素イオン親和性を使用し、非経験的に計算された特徴やハメットの線形自由エネルギー関係から導出された置換基ベースのパラメーターなど、化学的に意味のある記述子に基づいて解釈可能な ML モデルを開発しました。
化学空間を明確に定義された分子足場に制限することで、低データ領域における従来のブラックボックス深層学習モデルを上回る、高精度の予測 (平均絶対誤差 < 6 kJ/mol) を達成しました。
モデルの解釈可能性分析により、これらの化合物におけるルイス酸性の起源が明らかになり、分子足場上の置換基の性質と位置を通じてルイス酸性を調節するための実用的なレバーが特定されました。
この研究は、ML と化学者の考え方の橋渡しとなり、説明可能なモデルがどのように分子設計にインスピレーションを与え、化学反応性の科学的理解を強化できるかを示しています。
要約(オリジナル)
The integration of machine learning (ML) into chemistry offers transformative potential in the design of molecules with targeted properties. However, the focus has often been on creating highly efficient predictive models, sometimes at the expense of interpretability. In this study, we leverage explainable AI techniques to explore the rational design of boron-based Lewis acids, which play a pivotal role in organic reactions due to their electron-ccepting properties. Using Fluoride Ion Affinity as a proxy for Lewis acidity, we developed interpretable ML models based on chemically meaningful descriptors, including ab initio computed features and substituent-based parameters derived from the Hammett linear free-energy relationship. By constraining the chemical space to well-defined molecular scaffolds, we achieved highly accurate predictions (mean absolute error < 6 kJ/mol), surpassing conventional black-box deep learning models in low-data regimes. Interpretability analyses of the models shed light on the origin of Lewis acidity in these compounds and identified actionable levers to modulate it through the nature and positioning of substituents on the molecular scaffold. This work bridges ML and chemist's way of thinking, demonstrating how explainable models can inspire molecular design and enhance scientific understanding of chemical reactivity.
arxiv情報
著者 | Juliette Fenogli,Laurence Grimaud,Rodolphe Vuilleumier |
発行日 | 2025-01-13 14:51:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google