要約
タイトル:COmic:(マルチ)オミックスデータに対する解釈可能なエンドツーエンド学習のためのコンボリューションカーネルネットワーク
要約:
– 最近の技術の進歩に伴い、利用可能なオミックスデータセットのサイズが着実に増えています。
– サンプルサイズの増加は医療において関連予測タスクのパフォーマンスを改善するために使用されますが、大規模なデータセットに最適化されたモデルは通常、ブラックボックスとして機能します。
– 医療のような高リスクシナリオでは、ブラックボックスモデルを使用することは安全性やセキュリティの問題を引き起こします。分子因子やフェノタイプが予測に影響した説明がない場合、医療提供者はモデルを盲目的に信頼するしかありません。
– COmicは、コンボリューションカーネルネットワークとパスウェイ誘導カーネルを組み合わせた新しいタイプの人工ニューラルネットワークです。この方法により、数百から数十万のサンプルのオミックスデータに対して堅牢かつ解釈可能なエンドツーエンド学習が可能になります。
– COmicは、マルチオミックスデータの利用に容易に適合できます。
– COmicの性能能力を6つの異なる乳がんコホートで評価しました。また、METABRICコホートのマルチオミックスデータを使用したCOmicモデルをトレーニングしました。これらのモデルは、両方のタスクにおいて競合他社と同等以上の性能を発揮しました。
– パスウェイ誘導ラプラシアンカーネルの使用により、ニューラルネットワークのブラックボックス性が開かれ、事後説明モデルの必要性を排除し、本質的に解釈可能なモデルが得られることを示しています。
要約(オリジナル)
Motivation: The size of available omics datasets is steadily increasing with technological advancement in recent years. While this increase in sample size can be used to improve the performance of relevant prediction tasks in healthcare, models that are optimized for large datasets usually operate as black boxes. In high stakes scenarios, like healthcare, using a black-box model poses safety and security issues. Without an explanation about molecular factors and phenotypes that affected the prediction, healthcare providers are left with no choice but to blindly trust the models. We propose a new type of artificial neural network, named Convolutional Omics Kernel Network (COmic). By combining convolutional kernel networks with pathway-induced kernels, our method enables robust and interpretable end-to-end learning on omics datasets ranging in size from a few hundred to several hundreds of thousands of samples. Furthermore, COmic can be easily adapted to utilize multi-omics data. Results: We evaluated the performance capabilities of COmic on six different breast cancer cohorts. Additionally, we trained COmic models on multi-omics data using the METABRIC cohort. Our models performed either better or similar to competitors on both tasks. We show how the use of pathway-induced Laplacian kernels opens the black-box nature of neural networks and results in intrinsically interpretable models that eliminate the need for post-hoc explanation models.
arxiv情報
著者 | Jonas C. Ditz,Bernhard Reuter,Nico Pfeifer |
発行日 | 2023-05-03 11:51:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI