要約
最近、グラフ ニューラル ネットワーク (GNN) が分子特性の予測に適用されることに成功しました。
それらの有効性にもかかわらず、異なる構造パターンを持つ多様な分子に対して単一の GNN モデルをトレーニングすると、その予測パフォーマンスが制限されることが経験的に観察されています。
この論文では、この観察に動機付けられて、トポロジー固有の予測モデル (エキスパートと呼ばれる) を活用することを提案します。
つまり、各エキスパートは、対応するトポロジー グループでトレーニングを受けながら、トポロジー固有の識別機能を学習します。
トポロジー パターンによって分子をグループ化するという重要な課題に取り組むために、入力分子をクラスターの 1 つに割り当て、2 つの異なるタイプの自己監視でゲーティング モジュールをさらに最適化する、クラスター ベースのゲーティング モジュールを導入します。
それぞれGNNと分子足場。
広範な実験により、\proposed が分子特性予測のパフォーマンスを向上させ、ベースラインよりも目に見えない足場を持つ新しい分子のより良い一般化を達成したことが実証されました。
コードは https://github.com/kimsu55/ToxExpert で入手できます。
要約(オリジナル)
Recently, graph neural networks (GNNs) have been successfully applied to predicting molecular properties, which is one of the most classical cheminformatics tasks with various applications. Despite their effectiveness, we empirically observe that training a single GNN model for diverse molecules with distinct structural patterns limits its prediction performance. In this paper, motivated by this observation, we propose \proposed to leverage topology-specific prediction models (referred to as experts), each of which is responsible for each molecular group sharing similar topological semantics. That is, each expert learns topology-specific discriminative features while being trained with its corresponding topological group. To tackle the key challenge of grouping molecules by their topological patterns, we introduce a clustering-based gating module that assigns an input molecule into one of the clusters and further optimizes the gating module with two different types of self-supervision: topological semantics induced by GNNs and molecular scaffolds, respectively. Extensive experiments demonstrate that \proposed has boosted the performance for molecular property prediction and also achieved better generalization for new molecules with unseen scaffolds than baselines. The code is available at https://github.com/kimsu55/ToxExpert.
arxiv情報
著者 | Su Kim,Dongha Lee,SeongKu Kang,Seonghyeon Lee,Hwanjo Yu |
発行日 | 2023-02-27 11:53:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google