Functional Latent Dynamics for Irregularly Sampled Time Series Forecasting

要約

欠測値を含む不規則にサンプリングされた時系列は、ヘルスケア、気候、天文学などの様々な実世界のアプリケーションでしばしば観測される。これらは、完全に観測され、定期的にサンプリングされた時系列のみを対象とする標準的な深層学習モデルにとって、大きな課題となる。不規則な時系列の連続的なダイナミクスを捉えるために、多くのモデルは隠れた状態で常微分方程式(ODE)を解くことに依存している。このようなODEベースのモデルは、逐次演算と複雑なODEソルバーのために、動作が遅く、大容量のメモリを必要とする傾向がある。複雑なODEベースのモデルに代わるものとして、我々はFunctional Latent Dynamics (FLD)と呼ばれるモデル群を提案する。ODEを解く代わりに、すべての時点に存在する単純な曲線を用いて、モデル中の連続的な潜在状態を指定する。これらの曲線の係数は、欠損値を無視して時系列の観測値のみから学習される。広範な実験を通じて、FLDがODEベースの最良のモデルと比較して、実行時間とメモリ・オーバーヘッドを削減しながら、より優れた性能を達成することを実証する。具体的には、FLDは最高の性能を持つ予測モデルと比較して、予測を推測するのに必要な時間が一桁少ない。

要約(オリジナル)

Irregularly sampled time series with missing values are often observed in multiple real-world applications such as healthcare, climate and astronomy. They pose a significant challenge to standard deep learn- ing models that operate only on fully observed and regularly sampled time series. In order to capture the continuous dynamics of the irreg- ular time series, many models rely on solving an Ordinary Differential Equation (ODE) in the hidden state. These ODE-based models tend to perform slow and require large memory due to sequential operations and a complex ODE solver. As an alternative to complex ODE-based mod- els, we propose a family of models called Functional Latent Dynamics (FLD). Instead of solving the ODE, we use simple curves which exist at all time points to specify the continuous latent state in the model. The coefficients of these curves are learned only from the observed values in the time series ignoring the missing values. Through extensive experi- ments, we demonstrate that FLD achieves better performance compared to the best ODE-based model while reducing the runtime and memory overhead. Specifically, FLD requires an order of magnitude less time to infer the forecasts compared to the best performing forecasting model.

arxiv情報

著者 Christian Klötergens,Vijaya Krishna Yalavarthi,Maximilian Stubbemann,Lars Schmidt-Thieme
発行日 2024-05-06 15:53:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク