要約
欠損値を含む不規則にサンプリングされた時系列データは、医療、天文学、気候科学などの多くの分野で観察されています。
この種の時系列の内挿は、根本原因の分析や医療診断などのタスクや、不規則なデータやノイズの多いデータを平滑化するために非常に重要です。
この課題に対処するために、欠損値を含む不規則にサンプリングされた時系列を確率的に補間するための「Tripletformer」と呼ばれる新しいエンコーダ/デコーダ アーキテクチャを紹介します。
この注意ベースのモデルは一連の観測値に基づいて動作し、各要素は時間、チャネル、値の 3 つの要素で構成されます。
Tripletformer のエンコーダーとデコーダーは、アテンション レイヤーと完全接続レイヤーを使用して設計されており、モデルが提示されたセット要素を効果的に処理できるようになります。
複数の実世界および合成データセットのさまざまなベースラインに対して Tripletformer を評価し、より正確で確実な内挿を生成することを示します。
結果は、Tripletformer を使用すると、次に優れたモデルと比較して、実世界のデータセットで負の対数尤度誤差が最大 32%、合成データセットで 85% 改善されたことを示しています。
要約(オリジナル)
Irregularly sampled time series data with missing values is observed in many fields like healthcare, astronomy, and climate science. Interpolation of these types of time series is crucial for tasks such as root cause analysis and medical diagnosis, as well as for smoothing out irregular or noisy data. To address this challenge, we present a novel encoder-decoder architecture called ‘Tripletformer’ for probabilistic interpolation of irregularly sampled time series with missing values. This attention-based model operates on sets of observations, where each element is composed of a triple of time, channel, and value. The encoder and decoder of the Tripletformer are designed with attention layers and fully connected layers, enabling the model to effectively process the presented set elements. We evaluate the Tripletformer against a range of baselines on multiple real-world and synthetic datasets and show that it produces more accurate and certain interpolations. Results indicate an improvement in negative loglikelihood error by up to 32% on real-world datasets and 85% on synthetic datasets when using the Tripletformer compared to the next best model.
arxiv情報
著者 | Vijaya Krishna Yalavarthi,Johannes Burchert,Lars Schmidt-thieme |
発行日 | 2024-01-12 13:43:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google