要約
遍在する欠損値により、多変量時系列データが部分的に観測され、時系列の整合性が破壊され、効果的な時系列データ分析が妨げられます。
最近、深層学習代入手法は、破損した時系列データの品質を向上させることに目覚ましい成功を収め、その後、下流タスクのパフォーマンスを向上させることが実証されました。
この論文では、最近提案された深層学習の代入手法に関する包括的な調査を行います。
まず、レビューされた手法の分類を提案し、次に、それらの手法の長所と限界を強調することによって、これらの手法の構造化されたレビューを提供します。
また、さまざまな方法を研究し、下流タスクの強化を比較するための実証実験も実施します。
最後に、多変量時系列代入に関する将来の研究の未解決の問題が指摘されています。
定期的に維持される多変量時系列補完論文リストを含む、この作業のすべてのコードと構成は、GitHub リポジトリ~\url{https://github.com/WenjieDu/Awesome\_Imputation} にあります。
要約(オリジナル)
The ubiquitous missing values cause the multivariate time series data to be partially observed, destroying the integrity of time series and hindering the effective time series data analysis. Recently deep learning imputation methods have demonstrated remarkable success in elevating the quality of corrupted time series data, subsequently enhancing performance in downstream tasks. In this paper, we conduct a comprehensive survey on the recently proposed deep learning imputation methods. First, we propose a taxonomy for the reviewed methods, and then provide a structured review of these methods by highlighting their strengths and limitations. We also conduct empirical experiments to study different methods and compare their enhancement for downstream tasks. Finally, the open issues for future research on multivariate time series imputation are pointed out. All code and configurations of this work, including a regularly maintained multivariate time series imputation paper list, can be found in the GitHub repository~\url{https://github.com/WenjieDu/Awesome\_Imputation}.
arxiv情報
著者 | Jun Wang,Wenjie Du,Wei Cao,Keli Zhang,Wenjia Wang,Yuxuan Liang,Qingsong Wen |
発行日 | 2024-02-06 15:03:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google