要約
縦断的データは、医療、社会学、地震学などの多くの分野で重要ですが、実世界のデータセットは高次元であり、構造化された欠損パターンが含まれている可能性があり、測定時点が未知の確率論によって支配される可能性があるため、専門家にとって顕著な課題となります。
プロセス。
さまざまな解決策が提案されていますが、そのほとんどはこれらの課題の 1 つだけを解決するように設計されています。
この研究では、これらすべての制限に対処できる、柔軟で効率的な潜在変数モデルを提案します。
私たちのアプローチは、ガウス プロセスを利用して、サンプルとそれに関連する欠損マスク間の時間的相関を捕捉し、基礎となる点プロセスをモデル化します。
私たちは、ディープ ニューラル ネットワークのパラメーター化されたエンコーダーおよびデコーダー モデルとともに、変分オートエンコーダーとしてモデルを構築し、効率的なモデル トレーニングのためのスケーラブルな償却変分推論アプローチを開発します。
シミュレートされたデータセットと実際のデータセットの両方を使用して、競争力のあるパフォーマンスを実証します。
要約(オリジナル)
Longitudinal data are important in numerous fields, such as healthcare, sociology and seismology, but real-world datasets present notable challenges for practitioners because they can be high-dimensional, contain structured missingness patterns, and measurement time points can be governed by an unknown stochastic process. While various solutions have been suggested, the majority of them have been designed to account for only one of these challenges. In this work, we propose a flexible and efficient latent-variable model that is capable of addressing all these limitations. Our approach utilizes Gaussian processes to capture temporal correlations between samples and their associated missingness masks as well as to model the underlying point process. We construct our model as a variational autoencoder together with deep neural network parameterised encoder and decoder models, and develop a scalable amortised variational inference approach for efficient model training. We demonstrate competitive performance using both simulated and real datasets.
arxiv情報
著者 | Maksim Sinelnikov,Manuel Haussmann,Harri Lähdesmäki |
発行日 | 2024-06-28 14:27:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google