Towards a more inductive world for drug repurposing approaches

要約

薬物標的相互作用 (DTI) の予測は、薬物再利用において不可欠ではあるものの、困難な作業です。
グラフ モデルでの学習は、薬物再利用のコストと時間を大幅に削減できるため、特に注目を集めています。
ただし、現在のアプローチの多くは、DTI 以外にも要求の高い追加情報を必要とするため、評価プロセスと使いやすさが複雑になっています。
さらに、現在のモデルの学習アーキテクチャにおける構造的な違いにより、公平なベンチマークが妨げられています。
この研究では、まず、堅牢なベンチマーク プロセスを通じて現在の DTI データセットと予測モデルの詳細な評価を実行し、トランスダクティブ モデルに基づく DTI 予測方法には一般化が欠けており、文献で以前に行われたように評価するとパフォーマンスのインフレにつながることを示します。
したがって、薬物再利用アプローチには適していません。
次に、ネガティブエッジサブサンプリングのための新しい生物学的駆動戦略を提案し、新たに発見された相互作用が実際に真実であることをインビトロ検証を通じて示します。
私たちは、この取り組みが将来の公平なベンチマークと堅牢なモデル設計の基礎となることを想定しています。
生成されたすべてのリソースとツールは、Python パッケージとして公開されています。

要約(オリジナル)

Drug-target interaction (DTI) prediction is a challenging, albeit essential task in drug repurposing. Learning on graph models have drawn special attention as they can significantly reduce drug repurposing costs and time commitment. However, many current approaches require high-demanding additional information besides DTIs that complicates their evaluation process and usability. Additionally, structural differences in the learning architecture of current models hinder their fair benchmarking. In this work, we first perform an in-depth evaluation of current DTI datasets and prediction models through a robust benchmarking process, and show that DTI prediction methods based on transductive models lack generalization and lead to inflated performance when evaluated as previously done in the literature, hence not being suited for drug repurposing approaches. We then propose a novel biologically-driven strategy for negative edge subsampling and show through in vitro validation that newly discovered interactions are indeed true. We envision this work as the underpinning for future fair benchmarking and robust model design. All generated resources and tools are publicly available as a python package.

arxiv情報

著者 Jesus de la Fuente,Guillermo Serrano,Uxía Veleiro,Mikel Casals,Laura Vera,Marija Pizurica,Antonio Pineda-Lucena,Idoia Ochoa,Silve Vicent,Olivier Gevaert,Mikel Hernaez
発行日 2023-11-21 15:28:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.QM パーマリンク