要約
詳細な表現型情報は、疾患の正確な診断とリスク推定に不可欠です。
表現型情報の豊富なソースとして、電子医療記録 (EHR) は、診断バリアントの解釈を強化することを約束します。
ただし、異種 EHR データから表現型を正確かつ効率的に抽出する方法は、依然として課題です。
この作業では、構造化された EHR のマルチモダリティ データと構造化されていない臨床ノートを使用して、正確な表現型予測を行うアンサンブル フレームワークである PheME を紹介します。
まず、複数のディープ ニューラル ネットワークを使用して、まばらな構造化 EHR データと冗長な臨床メモから信頼できる表現を学習します。
次に、マルチモーダル モデルがマルチモーダル機能を同じ潜在空間に配置して、表現型を予測します。
次に、アンサンブル学習を活用して、単一モーダル モデルとマルチモーダル モデルからの出力を組み合わせて、表現型予測を改善します。
提案されたフレームワークの表現型パフォーマンスを評価するために、7 つの疾患を選択します。
実験結果は、マルチモーダル データを使用すると、すべての疾患の表現型予測が大幅に改善されることを示しています。提案されたアンサンブル学習フレームワークは、パフォーマンスをさらに向上させることができます。
要約(オリジナル)
Detailed phenotype information is fundamental to accurate diagnosis and risk estimation of diseases. As a rich source of phenotype information, electronic health records (EHRs) promise to empower diagnostic variant interpretation. However, how to accurately and efficiently extract phenotypes from the heterogeneous EHR data remains a challenge. In this work, we present PheME, an Ensemble framework using Multi-modality data of structured EHRs and unstructured clinical notes for accurate Phenotype prediction. Firstly, we employ multiple deep neural networks to learn reliable representations from the sparse structured EHR data and redundant clinical notes. A multi-modal model then aligns multi-modal features onto the same latent space to predict phenotypes. Secondly, we leverage ensemble learning to combine outputs from single-modal models and multi-modal models to improve phenotype predictions. We choose seven diseases to evaluate the phenotyping performance of the proposed framework. Experimental results show that using multi-modal data significantly improves phenotype prediction in all diseases, the proposed ensemble learning framework can further boost the performance.
arxiv情報
著者 | Shenghan Zhang,Haoxuan Li,Ruixiang Tang,Sirui Ding,Laila Rasmy,Degui Zhi,Na Zou,Xia Hu |
発行日 | 2023-03-19 23:41:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google