要約
電子医療記録 (EHR) の二次研究利用は、この貴重なリソースに大量の欠落データがあるために妨げられることがよくあります。
EHR の欠落は、日常的な臨床ケア中のデータ記録の実践の結果として自然に発生しますが、これに対処することは、医療分析とその後の意思決定の精度にとって非常に重要です。
文献には、ディープ ニューラル ネットワークに基づくさまざまな代入手法が含まれています。
これらは、古典的および統計的代入手法では処理できない、EHR の動的で不均一かつ多変量の欠損パターンを克服することを目的としています。
ただし、既存のすべての深い代入手法は、代入と下流分析の両方を組み込んだエンドツーエンドのパイプラインに依存しています。
分類。
この結合により、代入の品質を評価することが困難になり、別のタスクにインピューターを再利用する柔軟性が失われます。
さらに、ほとんどのエンドツーエンドのディープ アーキテクチャは、すでに洗練されたディープ インピュテーション ネットワークに加えて、ダウンストリーム タスクを実行するために複雑なネットワークを使用する傾向があります。
したがって、文献で報告されている高いパフォーマンスがインピューターによるものなのか分類器によるものなのかを尋ね、さらに最適化された最先端のインピューターが使用されている場合、より単純な分類器が同等のパフォーマンスを達成できるのかを尋ねます。
このペーパーでは、特に下流の分類タスクに最先端の代入モデルの機能を活用するために構築された、モジュール式の深層学習ベースの代入および分類パイプラインの開発について検討します。
このようなモジュール式のアプローチにより、a) インピューターと分類器の品質を独立して客観的に評価でき、b) 最適化されたインピューターを使用したより単純な分類アーキテクチャのパフォーマンスの探索が可能になります。
要約(オリジナル)
Secondary research use of Electronic Health Records (EHRs) is often hampered by the abundance of missing data in this valuable resource. Missingness in EHRs occurs naturally as a result of the data recording practices during routine clinical care, but handling it is crucial to the precision of medical analysis and the decision-making that follows. The literature contains a variety of imputation methodologies based on deep neural networks. Those aim to overcome the dynamic, heterogeneous and multivariate missingness patterns of EHRs, which cannot be handled by classical and statistical imputation methods. However, all existing deep imputation methods rely on end-to-end pipelines that incorporate both imputation and downstream analyses, e.g. classification. This coupling makes it difficult to assess the quality of imputation and takes away the flexibility of re-using the imputer for a different task. Furthermore, most end-to-end deep architectures tend to use complex networks to perform the downstream task, in addition to the already sophisticated deep imputation network. We, therefore ask if the high performance reported in the literature is due to the imputer or the classifier and further ask if an optimised state-of-the-art imputer is used, a simpler classifier can achieve comparable performance. This paper explores the development of a modular, deep learning-based imputation and classification pipeline, specifically built to leverage the capabilities of state-of-the-art imputation models for downstream classification tasks. Such a modular approach enables a) objective assessment of the quality of the imputer and classifier independently, and b) enables the exploration of the performance of simpler classification architectures using an optimised imputer.
arxiv情報
著者 | Joseph Arul Raj,Linglong Qian,Zina Ibrahim |
発行日 | 2024-11-06 14:18:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google