要約
生物学的層内および生物学的層間の複雑な相互作用や疾患の不均一性(病因や臨床症状の不均一性など)を含むマルチオミクスデータの明確な特徴により、マルチオミクス予測における独自の課題に対処するための新しいデザインの開発が推進されます。
この論文では、データの不均一性を検討し、バイアス伝達を抑制することで、オミクス内およびオミクス間の知識を適応的な方法で伝達し、それにより分類パフォーマンスを向上させる、マルチビュー知識伝達学習 (MVKTrans) フレームワークを提案します。
具体的には、ラベルのないデータでトレーニングされたグラフ対比モジュールを設計し、基礎となるイントラオミクス パターンを効果的に学習して教師ありタスクに転送します。
この教師なし事前トレーニングにより、下流のタスクに関係なく、各モダリティの一般的で不偏な表現の学習が促進されます。
さまざまな疾患やサンプルにわたるモダリティのさまざまな識別能力を考慮して、適応的で双方向のクロスオミクス蒸留モジュールを導入します。
このモジュールは、より豊富なモダリティを自動的に識別し、より有益なオミックスからあまり有益でないオミックスへの動的な知識の伝達を促進し、それによりより堅牢で一般化された統合を可能にします。
4 つの実際の生物医学データセットに対する広範な実験により、最先端のものと比較して MVKTrans の優れたパフォーマンスと堅牢性が実証されました。
コードとデータは https://github.com/Yaolab-fantastic/MVKTrans で入手できます。
要約(オリジナル)
The distinct characteristics of multiomics data, including complex interactions within and across biological layers and disease heterogeneity (e.g., heterogeneity in etiology and clinical symptoms), drive us to develop novel designs to address unique challenges in multiomics prediction. In this paper, we propose the multi-view knowledge transfer learning (MVKTrans) framework, which transfers intra- and inter-omics knowledge in an adaptive manner by reviewing data heterogeneity and suppressing bias transfer, thereby enhancing classification performance. Specifically, we design a graph contrastive module that is trained on unlabeled data to effectively learn and transfer the underlying intra-omics patterns to the supervised task. This unsupervised pretraining promotes learning general and unbiased representations for each modality, regardless of the downstream tasks. In light of the varying discriminative capacities of modalities across different diseases and/or samples, we introduce an adaptive and bi-directional cross-omics distillation module. This module automatically identifies richer modalities and facilitates dynamic knowledge transfer from more informative to less informative omics, thereby enabling a more robust and generalized integration. Extensive experiments on four real biomedical datasets demonstrate the superior performance and robustness of MVKTrans compared to the state-of-the-art. Code and data are available at https://github.com/Yaolab-fantastic/MVKTrans.
arxiv情報
著者 | Shan Cong,Zhiling Sang,Hongwei Liu,Haoran Luo,Xin Wang,Hong Liang,Jie Hao,Xiaohui Yao |
発行日 | 2024-11-13 15:45:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google