Continuous time recurrent neural networks: overview and application to forecasting blood glucose in the intensive care unit

要約

タイトル:連続時間リカレントニューラルネットワーク:概要と集中治療室での血糖予測への応用

要約:
– 不規則な時系列データは、医学を含む多くの応用領域で一般的であり、時系列モデリングが重要な統計ツールの1つであるため、モデル選択において課題が生じることが多い。
– 連続時間自己回帰リカレントニューラルネットワーク(CTRNN)は、連続的な隠れ状態の進化を観測間で包括することによって不規則な観測を考慮するディープラーニングモデルであり、ニューラル常微分方程式(ODE)またはニューラルフローレイヤーを使用してこれを実現する。
– 本稿では、CTRNNの概要を説明し、医療介入などの問題を考慮するために提案されてきたさまざまなアーキテクチャについても説明する。さらに、CTRNNのモデルを使って電子医療記録とシミュレーションデータを用いて集中治療室での血糖の確率的な予測の応用を実証する。
– 実験結果は、ニューラルODEまたはニューラルフローレイヤーの付加によって、不規則な測定の設定における自己回帰リカレントニューラルネットワークの性能が一般的に向上することを確認する。しかし、いくつかのCTRNNアーキテクチャは、自己回帰勾配ブーストツリーモデル(Catboost)に比べて性能が劣る。唯一、長期短期記憶(LSTM)とニューラルODEベースのアーキテクチャ(ODE-LSTM)が、連続ランク付け確率スコア(ODE-LSTM:0.118±0.001、Catboost:0.118±0.001)、無知スコア(0.152±0.008、0.149±0.002)および区間スコア(175±1、176±1)などの確率的な予測メトリックによって同等の性能を達成する。

要約(オリジナル)

Irregularly measured time series are common in many of the applied settings in which time series modelling is a key statistical tool, including medicine. This provides challenges in model choice, often necessitating imputation or similar strategies. Continuous time autoregressive recurrent neural networks (CTRNNs) are a deep learning model that account for irregular observations through incorporating continuous evolution of the hidden states between observations. This is achieved using a neural ordinary differential equation (ODE) or neural flow layer. In this manuscript, we give an overview of these models, including the varying architectures that have been proposed to account for issues such as ongoing medical interventions. Further, we demonstrate the application of these models to probabilistic forecasting of blood glucose in a critical care setting using electronic medical record and simulated data. The experiments confirm that addition of a neural ODE or neural flow layer generally improves the performance of autoregressive recurrent neural networks in the irregular measurement setting. However, several CTRNN architecture are outperformed by an autoregressive gradient boosted tree model (Catboost), with only a long short-term memory (LSTM) and neural ODE based architecture (ODE-LSTM) achieving comparable performance on probabilistic forecasting metrics such as the continuous ranked probability score (ODE-LSTM: 0.118$\pm$0.001; Catboost: 0.118$\pm$0.001), ignorance score (0.152$\pm$0.008; 0.149$\pm$0.002) and interval score (175$\pm$1; 176$\pm$1).

arxiv情報

著者 Oisin Fitzgerald,Oscar Perez-Concha,Blanca Gallego-Luxan,Alejandro Metke-Jimenez,Lachlan Rudd,Louisa Jorm
発行日 2023-04-14 09:39:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, stat.AP, stat.ML パーマリンク