Rediscovery of CNN’s Versatility for Text-based Encoding of Raw Electronic Health Records

要約

電子医療記録 (EHR) の豊富な情報を最大限に活用することは、医療分野で急速に重要なトピックになりつつあります。
最近の研究では、形式や医療コードの基準に関係なく、生の EHR データにすべての機能を埋め込む有望なフレームワークが提示されました。
ただし、フレームワークは、最小限の前処理で EHR をエンコードすることにのみ焦点を当てており、計算とメモリ使用量に関して効率的な EHR 表現を学習する方法を検討していません。
この論文では、大規模なデータを管理可能なサイズに縮小するだけでなく、患者のコア情報を適切に保存して、さまざまな臨床タスクを実行できる汎用エンコーダーを検索します。
階層的に構造化された畳み込みニューラル ネットワーク (CNN) は、再構成、予測、生成などのさまざまなタスクで最先端のモデルよりも優れたパフォーマンスを発揮することが多く、パラメーターやトレーニング時間が少なくても優れていることがわかりました。
さらに、EHR データの固有の階層を利用することで、あらゆる種類のバックボーン モデルと実行される臨床タスクのパフォーマンスを向上させることができます。
広範な実験を通じて、私たちは研究結果を現実世界の実践に一般化するための具体的な証拠を提示します。
多数の設定を調査しながら得られた調査結果に基づいて、エンコーダーを構築するための明確なガイドラインを提供します。

要約(オリジナル)

Making the most use of abundant information in electronic health records (EHR) is rapidly becoming an important topic in the medical domain. Recent work presented a promising framework that embeds entire features in raw EHR data regardless of its form and medical code standards. The framework, however, only focuses on encoding EHR with minimal preprocessing and fails to consider how to learn efficient EHR representation in terms of computation and memory usage. In this paper, we search for a versatile encoder not only reducing the large data into a manageable size but also well preserving the core information of patients to perform diverse clinical tasks. We found that hierarchically structured Convolutional Neural Network (CNN) often outperforms the state-of-the-art model on diverse tasks such as reconstruction, prediction, and generation, even with fewer parameters and less training time. Moreover, it turns out that making use of the inherent hierarchy of EHR data can boost the performance of any kind of backbone models and clinical tasks performed. Through extensive experiments, we present concrete evidence to generalize our research findings into real-world practice. We give a clear guideline on building the encoder based on the research findings captured while exploring numerous settings.

arxiv情報

著者 Eunbyeol Cho,Min Jae Lee,Kyunghoon Hur,Jiyoun Kim,Jinsung Yoon,Edward Choi
発行日 2023-03-15 00:37:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク