要約
この論文では、縦断的研究における欠損データ補完の課題に効果的に取り組むための、新しいフレームワークであるサンプリングガイド付き異種グラフ ニューラル ネットワーク (SHT-GNN) を提案します。
不規則または一貫性のない欠損データを処理するために大規模な前処理が必要になることが多い従来の方法とは異なり、私たちのアプローチは、計算効率を維持しながら任意の欠損データ パターンに対応します。
SHT-GNN は、観測値と共変量の両方を別個のノード タイプとしてモデル化し、被験者固有の縦方向のサブネットワークを介して連続する時点で観測ノードを接続します。一方、共変量と観測値の相互作用は、2 部グラフ内の属性付きエッジによって表されます。
SHT-GNN は、主題ごとのミニバッチ サンプリングと多層時間平滑化メカニズムを活用することで、ノード表現を効果的に学習し、欠損データを代入しながら、大規模なデータセットに効率的にスケーリングします。
アルツハイマー病神経画像イニシアチブ (ADNI) データセットを含む、合成データセットと現実世界のデータセットの両方に対する広範な実験により、欠損データ率が高い場合でも、SHT-GNN が既存の代入手法を大幅に上回ることが実証されました。
実証結果は、特に複雑で大規模な縦断データのコンテキストにおいて、SHT-GNN の堅牢な代入機能と優れたパフォーマンスを強調しています。
要約(オリジナル)
In this paper, we propose a novel framework, the Sampling-guided Heterogeneous Graph Neural Network (SHT-GNN), to effectively tackle the challenge of missing data imputation in longitudinal studies. Unlike traditional methods, which often require extensive preprocessing to handle irregular or inconsistent missing data, our approach accommodates arbitrary missing data patterns while maintaining computational efficiency. SHT-GNN models both observations and covariates as distinct node types, connecting observation nodes at successive time points through subject-specific longitudinal subnetworks, while covariate-observation interactions are represented by attributed edges within bipartite graphs. By leveraging subject-wise mini-batch sampling and a multi-layer temporal smoothing mechanism, SHT-GNN efficiently scales to large datasets, while effectively learning node representations and imputing missing data. Extensive experiments on both synthetic and real-world datasets, including the Alzheimer’s Disease Neuroimaging Initiative (ADNI) dataset, demonstrate that SHT-GNN significantly outperforms existing imputation methods, even with high missing data rates. The empirical results highlight SHT-GNN’s robust imputation capabilities and superior performance, particularly in the context of complex, large-scale longitudinal data.
arxiv情報
著者 | Zhaoyang Zhang,Ziqi Chen,Qiao Liu,Jinhan Xie,Hongtu Zhu |
発行日 | 2024-11-07 17:41:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google