Rediscovery of CNN’s Versatility for Text-based Encoding of Raw Electronic Health Records

要約

タイトル: テキストベースでの生の電子健康記録のエンコーディングに対するCNNの汎用性の再発見

要約:

– 電子健康記録(EHR)には豊富な情報が含まれており、それを最大限に活用することは医療の重要な課題になっている。
– 現在、EHRの生のデータに対して、形式や医療コードの規格に関係なく特徴量を埋め込むフレームワークが注目されているが、このフレームワークは前処理が最小限になされ、コンピューターとメモリの使用効率が改善されるように考慮していない。
– 本論文では、使いやすく、所定の大きさにまでデータを小さく圧縮することができ、患者の中心となる情報を効率的に学習する方法を探索する。
– 階層的な構造を持つ畳み込みニューラルネットワーク(CNN)を用いると、再構成、予測、生成のような多岐にわたる課題で、最新モデルを上回る性能を発揮することが示された。
– EHRデータの内部階層を利用することによって、バックボーンモデルや実行された臨床課題の性能を向上させることができることがわかった。
– 本論文では、さまざまな設定を探索した結果得られた研究成果に基づいて構築されたエンコーダーの具体的な設計指針が示される。

要約(オリジナル)

Making the most use of abundant information in electronic health records (EHR) is rapidly becoming an important topic in the medical domain. Recent work presented a promising framework that embeds entire features in raw EHR data regardless of its form and medical code standards. The framework, however, only focuses on encoding EHR with minimal preprocessing and fails to consider how to learn efficient EHR representation in terms of computation and memory usage. In this paper, we search for a versatile encoder not only reducing the large data into a manageable size but also well preserving the core information of patients to perform diverse clinical tasks. We found that hierarchically structured Convolutional Neural Network (CNN) often outperforms the state-of-the-art model on diverse tasks such as reconstruction, prediction, and generation, even with fewer parameters and less training time. Moreover, it turns out that making use of the inherent hierarchy of EHR data can boost the performance of any kind of backbone models and clinical tasks performed. Through extensive experiments, we present concrete evidence to generalize our research findings into real-world practice. We give a clear guideline on building the encoder based on the research findings captured while exploring numerous settings.

arxiv情報

著者 Eunbyeol Cho,Min Jae Lee,Kyunghoon Hur,Jiyoun Kim,Jinsung Yoon,Edward Choi
発行日 2023-05-10 09:11:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.LG パーマリンク