A Deep Neural Network — Mechanistic Hybrid Model to Predict Pharmacokinetics in Rat

要約

医薬品または農薬としての小分子の開発における重要な側面は、静脈内および経口投与後の全身への利用可能性です。
潜在的な候補物質の化学構造から全身性の利用可能性を予測することは、有利な動態プロファイルを持つ化合物に薬剤または農薬の開発を集中させることができるため、非常に望ましいことです。
ただし、その可用性は分子特性、生物学、生理学の間の複雑な相互作用の結果であり、トレーニング データはまれであるため、そのような予測は困難です。
この研究では、以前に開発されたハイブリッド モデルを改良します [1]。
総経口曝露の場合の変化倍数誤差の中央値は 2.85 から 2.35 に、静脈内投与の場合は 1.95 から 1.62 に減少しました。
これは、より大きなデータセットでトレーニングし、ニューラル ネットワーク アーキテクチャと機械モデルのパラメータ化を改善することによって実現されます。
さらに、追加のエンドポイントを予測し、性別や剤形などのさまざまな共変量を処理できるようにアプローチを拡張します。
純粋な機械学習モデルとは対照的に、私たちのモデルはトレーニングされていない新しいエンドポイントを予測できます。
モデルは総エクスポージャーについてのみトレーニングされていますが、最初の 24 時間のエクスポージャーを予測することでこの機能を実証します。

要約(オリジナル)

An important aspect in the development of small molecules as drugs or agro-chemicals is their systemic availability after intravenous and oral administration. The prediction of the systemic availability from the chemical structure of a potential candidate is highly desirable, as it allows to focus the drug or agrochemical development on compounds with a favorable kinetic profile. However, such pre-dictions are challenging as the availability is the result of the complex interplay between molecular properties, biology and physiology and training data is rare. In this work we improve the hybrid model developed earlier [1]. We reduce the median fold change error for the total oral exposure from 2.85 to 2.35 and for intravenous administration from 1.95 to 1.62. This is achieved by training on a larger data set, improving the neural network architecture as well as the parametrization of mechanistic model. Further, we extend our approach to predict additional endpoints and to handle different covariates, like sex and dosage form. In contrast to a pure machine learning model, our model is able to predict new end points on which it has not been trained. We demonstrate this feature by predicting the exposure over the first 24h, while the model has only been trained on the total exposure.

arxiv情報

著者 Florian Führer,Andrea Gruber,Holger Diedam,Andreas H. Göller,Stephan Menz,Sebastian Schneckener
発行日 2024-01-02 11:48:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG, q-bio.BM, q-bio.QM パーマリンク