Gene Regulatory Network Inference from Pre-trained Single-Cell Transcriptomics Transformer with Joint Graph Learning

要約

単一細胞 RNA シーケンス (scRNA-seq) データから遺伝子制御ネットワーク (GRN) を推測することは、遺伝子とその制御相互作用の間の複雑な関係を捉える必要がある複雑な課題です。
この研究では、広範な未標識 scRNA-seq データでトレーニングされた単一細胞 BERT ベースの事前トレーニング済みトランスフォーマー モデル (scBERT) を活用して、既存の GRN から構造化された生物学的知識を強化することで、この課題に取り組みます。
事前にトレーニングされた単一セル言語モデルによって学習された豊富な文脈表現と、グラフ ニューラル ネットワーク (GNN) を使用して GRN にエンコードされた構造化知識を組み合わせる、新しい共同グラフ学習アプローチを紹介します。
これら 2 つの手法を統合することにより、我々のアプローチは、scRNA-seq データによって提供される遺伝子発現レベルの制約と、GRN に固有の構造化された生物学的知識の両方を効果的に推論します。
私たちは、細胞型固有のグランド トゥルース ネットワークを使用して、BEELINE 研究からのヒト細胞ベンチマーク データセットに対する手法を評価します。
この結果は、現在の最先端のベースラインを上回る優れたパフォーマンスを実証し、細胞調節機構のより深い理解を提供します。

要約(オリジナル)

Inferring gene regulatory networks (GRNs) from single-cell RNA sequencing (scRNA-seq) data is a complex challenge that requires capturing the intricate relationships between genes and their regulatory interactions. In this study, we tackle this challenge by leveraging the single-cell BERT-based pre-trained transformer model (scBERT), trained on extensive unlabeled scRNA-seq data, to augment structured biological knowledge from existing GRNs. We introduce a novel joint graph learning approach that combines the rich contextual representations learned by pre-trained single-cell language models with the structured knowledge encoded in GRNs using graph neural networks (GNNs). By integrating these two modalities, our approach effectively reasons over boththe gene expression level constraints provided by the scRNA-seq data and the structured biological knowledge inherent in GRNs. We evaluate our method on human cell benchmark datasets from the BEELINE study with cell type-specific ground truth networks. The results demonstrate superior performance over current state-of-the-art baselines, offering a deeper understanding of cellular regulatory mechanisms.

arxiv情報

著者 Sindhura Kommu,Yizhi Wang,Yue Wang,Xuan Wang
発行日 2024-07-25 16:42:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク